Telechargé par MAROUANEZIATI24

extrait 42641210 (1)

publicité
T E C H N O LO G I E S D E L' I N F O R M AT I O N
Ti385 - Technologies radars et applications
Géomatique
Réf. Internet : 42641 | 2nde édition
Actualisation permanente sur
www.techniques-ingenieur.fr
Tec h n ique s de l ’I n gé ni eur
La plus impor tante ressource documentaire scientifique
et technique en français
Une information fiable, claire et actualisée
Validés par un comité scientifique et mis à jour en permanence sur Internet,
les articles Techniques de l’Ingénieur s’adressent à tous les ingénieurs et
scientifiques, en poste ou en formation.
Outil d’accompagnement de la formation et de la carrière des ingénieurs,
les ressources documentaires Techniques de l’Ingénieur constituent le socle
commun de connaissances des acteurs de la recherche et de l’industrie.
Les meilleurs experts techniques et scientifiques
Plus de 200 conseillers scientifiques et 3 500 auteurs, industriels, chercheurs,
professeurs collaborent pour faire de Techniques de l’Ingénieur l’éditeur
scientifique et technique de référence.
Les meilleurs
spécialistes sont réunis pour constituer une base de
connaissances inégalée, vous former et vous accompagner dans vos projets.
Une collection 100 % en ligne
• Accessibles sur www.techniques-ingenieur.fr, les dernières nouveautés et
actualisations de votre ressource documentaire
• Les articles téléchargeables en version PDF
Des services associés
Rendez-vous sur votre espace « Mon compte » en ligne pour retrouver la liste
des services associés à vos droits d’accès et les utiliser.

Des services associés
Pour toute information, le service clientèle reste à votre disposition :
Tél : 01 53 35 20 20 l Fax : 01 53 26 79 18 l Mail : [email protected]
III
Cet ouvrage fait par tie de
Technologies radars et applications
(Réf. Internet ti385)
composé de :
Gestion du spectre électromagnétique
Réf. Internet : 42590
Systèmes radars
Réf. Internet : 42591
Applications radars
Réf. Internet : 42592
Géomatique
Réf. Internet : 42641

Sur www.techniques-ingenieur.fr
• Saisissez la référence Internet pour accéder directement aux contenus en ligne
• Retrouvez la liste complète des ressources documentaires
IV
Cet ouvrage fait par tie de
Technologies radars et applications
(Réf. Internet ti385)
dont les exper ts scientifiques sont :
François LE CHEVALIER
Directeur scientifique à Thalès systèmes aéroportés, Professeur à l'université de
Delft
Michel KASSER
Ancien directeur de l’ENSG (Ecole Nationale des Sciences géographiques),
Professeur Responsable de la filière Géomatique à l'école d'ingénieurs
d'Yverdon-les-Bains (Suisse), Président de l’IGSO (Ingénieurs Géomètres de
Suisse Occidentale)

Sur www.techniques-ingenieur.fr
• Saisissez la référence Internet pour accéder directement aux contenus en ligne
• Retrouvez la liste complète des ressources documentaires
V
Les auteurs ayant contribué à cet ouvrage sont :
Pierre-Alain AYRAL
Pour les articles : H7415 –
H7416
Murielle GEORGESLEROY
Billy POTTIER
Pour l’article : H7416
Pour l’article : IN215
Fayçal REJIBA
Vincent BARRAS
Gregory GIULIANI
Pour l’article : RAD7420
Pour l’article : P4250
Daniel BATTU
Michel KASSER
Pour l’article : E7560
Pour les articles : C5010 –
RAD7418 – R1384
Pour l’article : TE5228
Florence SAGNARD
Isabelle BLOCH
Pour l’article : AF1515
Richard LAGABRIELLE
Pour l’article : TE5228
Philippe SAINTMARTIN
Pour l’article : TE6720
Pour l’article : C224
Michel DIAMENT
Pour l’article : R1814
Jean-Pierre LENOBLE
Pour l’article : R2345
Pierre H. FLAMANT
Pour l’article : E4312
Sophie
SAUVAGNARGUES
Pour les articles : H7415 –
H7416
Didier MASSONNET
Pour l’article : TE6704
Yannick-Igor FOGUEDJOMBOU
Laure NUNINGER
Pour l’article : H7416
Pour l’article : IN215
Florian TENA-CHOLLET
Pour l’article : H7416
Vincent THIERION
Pour l’article : H7416
Rachel OPITZ
Pour l’article : IN215

Sur www.techniques-ingenieur.fr
• Saisissez la référence Internet pour accéder directement aux contenus en ligne
• Retrouvez la liste complète des ressources documentaires
VI
Géomatique
(Réf. Internet 42641)
SOMMAIRE
1– Collecte et acquisition des données géographiques
Réf. Internet
Topographie. Topométrie. Géodésie
C5010
11
Photogrammétrie
RAD7418
15
Interférométrie Radar
TE6704
19
Du GPS historique aux GNSS : utilisation pour le positionnement de haute précision
R1384
23
Applications de la géolocalisation. Une technologie qui change le monde
TE6720
27
Systèmes de communications par satellite
E7560
31
Mesure du champ de pesanteur terrestre
R1814
37
Mesures géophysiques en mer
R2345
41
Géoradar - Principes et applications
TE5228
49
Géophysique appliquée au génie civil
C224
53
Géolidar pour l'étude des surfaces, de la biosphère et de l'hydrosphère
E4312
59
Scanners laser terrestres. Des nuages pour la géomatique
RAD7420
63
Lidar : technique de détection au service de l'archéologie
IN215
67
2– Traitement informatique des données
géographiques
Réf. Internet
Systèmes d'information géographique : outil d'aide à la gestion territoriale
H7415
75
Systèmes d'information géographique : études de cas
H7416
79
Partage de données environnementales
P4250
85
Morphologie mathématique et traitement d'images
AF1515
91

page
page
Sur www.techniques-ingenieur.fr
• Saisissez la référence Internet pour accéder directement aux contenus en ligne
• Retrouvez la liste complète des ressources documentaires
VII

Sur www.techniques-ingenieur.fr
• Saisissez la référence Internet pour accéder directement aux contenus en ligne
• Retrouvez la liste complète des ressources documentaires
Géomatique
(Réf. Internet 42641)
1
1– Collecte et acquisition des données géographiques
Réf. Internet
Topographie. Topométrie. Géodésie
C5010
11
Photogrammétrie
RAD7418
15
Interférométrie Radar
TE6704
19
Du GPS historique aux GNSS : utilisation pour le positionnement de haute précision
R1384
23
Applications de la géolocalisation. Une technologie qui change le monde
TE6720
27
Systèmes de communications par satellite
E7560
31
Mesure du champ de pesanteur terrestre
R1814
37
Mesures géophysiques en mer
R2345
41
Géoradar - Principes et applications
TE5228
49
Géophysique appliquée au génie civil
C224
53
Géolidar pour l'étude des surfaces, de la biosphère et de l'hydrosphère
E4312
59
Scanners laser terrestres. Des nuages pour la géomatique
RAD7420
63
Lidar : technique de détection au service de l'archéologie
IN215
67
page
2– Traitement informatique des données
géographiques

Sur www.techniques-ingenieur.fr
• Saisissez la référence Internet pour accéder directement aux contenus en ligne
• Retrouvez la liste complète des ressources documentaires
9
1
10
Référence Internet
C5010
Topographie. Topométrie. Géodésie
par
1
Michel KASSER
Professeur des Universités
Ingénieur en Chef Géographe
Directeur de l’École Supérieure des Géomètres et Topographes
(Conservatoire National des Arts et Métiers)
1.
1.1
1.2
1.3
2.
2.1
2.2
2.3
2.4
Parution : mai 2013 - Dernière validation : juillet 2020
2.5
3.
3.1
3.2
3.3
Représentation de la surface terrestre ..............................................
Surfaces de référence..................................................................................
Systèmes de coordonnées..........................................................................
1.2.1 Coordonnées géographiques ............................................................
1.2.2 Coordonnées rectangulaires planes .................................................
1.2.3 Coordonnées cartésiennes tridimensionnelles................................
1.2.4 Déviation de la verticale.....................................................................
Représentations planes ou projections .....................................................
1.3.1 Représentation ou projection Lambert .............................................
1.3.2 Projection UTM (Universal Transverse Mercator ) ...........................
1.3.3 Projection stéréographique ...............................................................
C 5 010 - 2
—
2
—
3
—
3
—
3
—
3
—
3
—
3
—
3
—
3
—
4
Méthodes de mesures géométriques .................................................
Propagation des ondes électromagnétiques dans l’atmosphère ............
2.1.1 Vitesse de la lumière dans l’atmosphère..........................................
2.1.2 Réfraction atmosphérique. Trajectoire d’une onde
électromagnétique dans l’atmosphère .............................................
Mesures terrestres.......................................................................................
2.2.1 Mesures d’angles................................................................................
2.2.2 Mesures électro-optiques de distances ............................................
2.2.3 Mesures de dénivelées, ou nivellement ...........................................
Méthodes de géodésie spatiale..................................................................
2.3.1 Description du GPS (Global Positioning System ) ...........................
2.3.2 Radio-interférométrie non connectée (VLBI)....................................
2.3.3 Télémétrie laser sur satellites............................................................
2.3.4 Autres systèmes de géodésie spatiale..............................................
Photogrammétrie.........................................................................................
2.4.1 Principe général ..................................................................................
2.4.2 Instruments employés........................................................................
2.4.3 Exploitation d’images spatiales.........................................................
Exemples de méthodes topographiques...................................................
2.5.1 Levés terrestres traditionnels (levés directs ) ...................................
2.5.2 Exemples .............................................................................................
—
—
—
4
4
5
—
—
—
—
—
—
—
—
—
—
—
—
—
—
—
—
—
5
6
6
7
10
12
12
12
13
13
13
13
14
14
14
14
15
Traitement et gestion des mesures ....................................................
Acquisition et stockage des données.........................................................
Logiciels de compensation .........................................................................
Systèmes d’information géographique (SIG) ...........................................
—
—
—
—
16
16
16
18
Pour en savoir plus...........................................................................................
Doc. C 5 010
a géodésie a pour objet initial l’étude et la mesure de la forme générale
de la Terre, de sa rotation, de son champ de pesanteur et des différents
systèmes de référence employables pour se repérer. Par extension de langage,
le géodésien est celui qui fournit des points d’appui connus par leurs coordonnées pour les travaux topographiques dont l’objet est ainsi de densifier
considérablement ce canevas de référence.
L
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Construction
11
C 5 010 − 1
Référence Internet
C5010
TOPOGRAPHIE. TOPOMÉTRIE. GÉODÉSIE ____________________________________________________________________________________________________
1
La topographie a pour objet la description et la représentation locale des
formes de la surface de la Terre. Le topographe procède donc à des levés, soit
en mesurant directement sur le terrain (mesures d’angles, de distances, ou GPS ;
§ 2.2 et 2.3.1), soit en exploitant les propriétés métriques d’images aériennes
stéréoscopiques du sol (photogrammétrie).
La topométrie représente l’ensemble des moyens géométriques employés
pour effectuer des mesures de positions relatives de points. C’est donc la boîte
à outils de base du topographe.
Le travail du géomètre recouvre une série d’activités complémentaires mais
étendues, allant de la topographie sous toutes ses formes à la cartographie (art
qui consiste à représenter au mieux la topographie sous forme de cartes), et à
tous les aspects techniques et juridiques de la définition de la propriété foncière.
Important : en Topographie, Topométrie et Géodésie, les angles sont exprimés en degrés ou
en grades et les pressions en millimètres de mercure. On rappelle les correspondances avec les
unités légales :
1o
= π /180 rad ;
1 gr
= π /200 rad ;
1 mmHg = 133 Pa.
1. Représentation
de la surface terrestre
1.1 Surfaces de référence
La surface de la Terre ne s’écarte que de quelques dizaines de kilomètres de celle d’une sphère : cette surface est elle aussi parfois
appelée topographie. Il s’agit à proprement parler de l’interface entre
la partie solide de l’écorce terrestre et l’atmosphère ou les océans.
Mais si l’on cherche à décrire cette surface, on est amené à s’intéresser au champ de pesanteur terrestre : en effet, la seule grandeur
accessible en tout point est la direction de la verticale, qui est donc
une référence obligée.
Si l’on étudie le champ de pesanteur, champ en 1/r 2 comme le
champ électrique par exemple, on pourra définir des surfaces équipotentielles dont l’espacement sera susceptible de varier d’un
endroit à l’autre. Lorsque ces surfaces se rapprochent, et par analogie
avec le champ électrique, le champ de pesanteur augmente, ce qui
se traduit par des valeurs de g plus importantes que lorsque ces
surfaces s’éloignent (une surface équipotentielle du champ de
pesanteur n’a rien à voir avec une surface où g serait une constante).
Une telle surface équipotentielle est partout perpendiculaire à la
direction de la pesanteur, donc à la verticale locale, mais g n’y est
pas uniforme. Si les océans n’étaient traversés d’aucun courant, s’ils
étaient de densité constante, et s’ils étaient au repos, leurs surfaces
décriraient des équipotentielles du champ de pesanteur. L’une de ces
surfaces, proche en général du niveau moyen de la mer, a été prise
pour origine des altitudes : on l’appelle géoïde. Le géoïde est assez
voisin d’un ellipsoïde de révolution, par rapport auquel il présente
des irrégularités plus ou moins corrélées avec la topographie,
n’excédant pas 100 m. On recherche donc l’ellipsoïde qui est le plus
proche du géoïde, et on privilégie cette nouvelle surface parce qu’elle
se décrit mathématiquement par deux nombres seulement : le
demi-grand axe a et le demi-petit axe b . On va donc repérer de
manière fiable tout point par rapport à sa position sur l’ellipsoïde
par trois nombres (par exemple une longitude, une latitude et une
hauteur).
Mais, pour beaucoup d’opérations, il faut en arriver à une représentation cartographique plane, permettant de travailler sur papier,
et l’ellipsoïde n’est bien évidemment pas une surface développable.
On va donc définir une dernière surface de référence, souvent
cylindre ou cône (donc développable), et on déterminera une transformation amenant le point de l’ellipsoïde sur cette surface. Cette
transformation est appelée représentation plane, et il s’agit fréquemment d’une simple projection, à tel point que le terme de projection désigne parfois, de manière générique et par abus de
langage, toute représentation cartographique.
Historique
On peut retrouver des indices de travaux topographiques
jusqu’à la plus haute antiquité (travaux hydrauliques, construction de grands édifices) et manifestement la définition de la
propriété foncière était déjà source de conflits en Égypte
ancienne ou en Mésopotamie, mais le grand essor de toutes ces
techniques date du XVIIe siècle en Europe et surtout en France :
à la mesure de la forme de la Terre sont attachés les travaux de
l’Académie des Sciences, et si l’abbé Picard, dès 1660, a su développer des instruments de visée extrêmement précis, ce sont des
hommes comme Bouguer, La Condamine, Clairaut, Huyghens,
etc., puis les quatre générations de Cassini qui ont fait faire en
guère plus d’un siècle des progrès absolument décisifs à la
géodésie et à la cartographie. Il faut en retenir qu’entre 1760
et 1950, la précision des méthodes topométriques n’a même pas
gagné un facteur 10, les seuls progrès significatifs étant dans le
domaine de la facilité de mise en œuvre et dans l’ergonomie de
ces techniques.
Aujourd’hui, en France, la notion de réseau géodésique
national (sur lequel tous travaux topographiques doivent
s’appuyer pour toujours rester compatibles entre eux,
avec 500 000 repères d’altitude de précision et 100 000 repères
géodésiques) s’efface avec un positionnement spatial mondial
précis et d’accès facile comme le GPS (§ 2.3.1), et la notion de
carte de base, document de base commun à tous types d’activités localisées et permettant la synergie entre travaux ultérieurs, disparaît devant le besoin omniprésent de bases de
données numériques nationales ou mondiales, réclamées pour
les applications des systèmes d’informations géographiques, et
dont les performances semblent devoir disqualifier pour longtemps tout autre moyen de représentation de la surface topographique. En France donc, le Cadastre a commencé à numériser
tous les plans cadastraux, alors que l’Institut Géographique
National a engagé, depuis 1986, la majorité de ses moyens dans
plusieurs bases de données nationales, dont la BDTopo d’une
précision métrique et la BDCarto de précision décamétrique.
C’est dire que dans ce secteur professionnel, tout change (de
nouveau) avec une grande rapidité.
C 5 010 − 2
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Construction
12
Référence Internet
C5010
___________________________________________________________________________________________________ TOPOGRAPHIE. TOPOMÉTRIE. GÉODÉSIE
ou les angles soient quelconques. On appelle altération linéaire la
variation relative d’une longueur passant de l’ellipsoïde à la représentation cartographique, et correction de réduction à la corde, ou
correction de dV (avec V visée), la correction angulaire qu’il convient
d’apporter à une visée ramenée sur l’ellipsoïde lorsqu’elle est représentée sur le plan cartographique (figure 1).
Nous présenterons ici les projections les plus courantes : Lambert
(employée pour la carte de France), UTM (Universal Transverse
Mercator, très employée dans le monde) et stéréographique (emploi
fréquent pour des travaux scientifiques).
De très nombreux ellipsoïdes nationaux, voire régionaux, ont été
établis par le passé, chacun approximant au mieux le géoïde sur sa
zone de travail, et parfaitement confondu avec lui au point fondamental (pour la France, l’ellipsoïde est dit de Clarke et date de 1880,
le point fondamental étant au Panthéon à Paris). Aujourd’hui, on a
souvent recours à un ellipsoïde général dit international, ce qui
simplifie les conversions de coordonnées qui restent malgré tout,
d’un pays à un autre et pour des travaux frontaliers par exemple,
un véritable problème technique et une source considérable
d’ennuis. Les demi-grand axe et demi-petit axe de l’ellipsoïde international (adopté en 1924) valent respectivement 6 378 388
et 6 356 912 m.
1.3.1 Représentation ou projection Lambert
1.2 Systèmes de coordonnées
La représentation Lambert utilisée pour la France consiste à projeter, avec pour pôle le centre de la Terre, les points de l’ellipsoïde
de référence sur un cône ayant pour axe celui de la Terre, ce cône
étant tangent à l’ellipsoïde le long d’un parallèle de latitude Φ0 . Dans
ces conditions, on constate qu’à la distance d de ce parallèle, une
longueur projetée sur ce cône subit une altération linéaire de
valeur m, et R étant le rayon moyen de courbure de l’ellipsoïde en
ce lieu :
Pour décrire la position d’un point A à la surface de la Terre, différents systèmes de coordonnées sont utilisés.
1.2.1 Coordonnées géographiques
– Longitude de A : angle dièdre entre deux plans contenant l’axe
de rotation de la Terre, l’un contenant A et l’autre un point G de
référence.
– Latitude de A : angle entre la verticale de A et le plan de
l’équateur.
– Altitude ellipsoïdique : distance de A à l’ellipsoïde.
– Altitude : différents systèmes existent, tenant plus ou moins
compte du champ de pesanteur, et assez proches d’une distance
de A au géoïde. C’est surtout la surface servant de référence qui la
différencie de la précédente.
d2
m = 1 + ------------2R 2
Cette valeur de m est malencontreusement toujours supérieure
à 1. On a donc jugé utile de multiplier a priori m par une valeur
constante inférieure à l’unité, souvent notée e0 , et qui vaut en
France :
e 0 = 0,999 877 4
de sorte que l’altération linéaire varie à peu près entre – 12
et + 16 cm/ km lorsqu’on passe de la proximité du parallèle de
latitude Φ 0 à celle correspondant à Φ 0 + 1,5 gr, ce qui aboutit à des
valeurs dont la moyenne est centrée sur 0. Grâce à cet artifice, il y
a deux parallèles le long desquels l’altération linéaire est nulle (à
environ 1 gr de Φ 0 ), et la France est découpée en 4 zones, ayant
pour largeur chacune une bande de 3 gr en latitude. La zone I est
centrée sur Φ 0 = 55 gr, la zone II sur 52 gr, la zone III sur 49 gr et
la zone IV (pour la Corse) sur 46,85 gr. Les formules détaillées
décrivant la projection Lambert peuvent être trouvées dans de
nombreux ouvrages, par exemple [1].
Il faut préciser par ailleurs qu’en France, le méridien de référence
(Paris) est à 2,596 921 3 gr à l’est de Greenwich. L’image de ce
méridien est parallèle à l’axe des Y.
Les coordonnées Lambert pour la géodésie sont obtenues en attribuant à l’intersection du méridien de référence et du parallèle de
latitude Φ 0 les coordonnées X = 600 km et Y = 200 km, sauf pour la
zone IV (Corse) où X = 234 358 m et Y = 185 861,669 m. L’axe des Y
est parallèle au Nord lorsqu’on est sur ce méridien. Les coordonnées
Lambert pour la cartographie sont les mêmes, excepté la valeur de Y
qui est augmentée de 1 000 km pour la zone I, 2 000 km pour la
zone II, 3 000 km pour la zone III et 4 000 km pour la zone IV.
1.2.2 Coordonnées rectangulaires planes
Employées sur le plan de représentation plane, l’axe des Y est dans
la direction du Nord pour au moins un méridien donné, et l’axe des X
lui est perpendiculaire : X est croissant vers l’Est et Y vers le Nord.
1.2.3 Coordonnées cartésiennes tridimensionnelles
Elles sont fréquemment utilisées comme intermédiaire de calcul
lorsqu’on emploie des méthodes de positionnement spatial. Les
axes X et Y sont orthogonaux dans le plan de l’équateur, l’axe Z est
confondu avec l’axe de rotation terrestre moyen.
1.2.4 Déviation de la verticale
Ce terme désigne l’écart angulaire existant à un endroit donné
entre la verticale physique du lieu (direction de la pesanteur matérialisée par exemple par un fil à plomb) et la direction orthogonale
à la surface de l’ellipsoïde passant par ce point. Lorsqu’elle est
inconnue (cas fréquent), c’est une cause d’imprécisions dans les
calculs de triangulation dans lesquels, par nécessité, on est amené
à supposer que l’on travaille sur l’ellipsoïde et non sur le géoïde.
De plus, on emploie fréquemment le système Lambert II étendu,
qui représente une extension du Lambert II (zone II) à toute la France,
avec bien sûr des altérations linéaires beaucoup plus fortes.
Dans la projection Lambert, l’image des parallèles donne des arcs
de cercle centrés sur S (figure 2) et celle des méridiens, des droites
concourantes en S.
1.3 Représentations planes ou projections
1.3.2 Projection UTM (Universal Transverse Mercator )
La représentation cartographique du terrain sur un plan passe par
l’intermédiaire de l’ellipsoïde. La représentation des points du terrain
ramenés à l’ellipsoïde (par projection) sur la surface cartographique
(qui est développable) peut prendre un grand nombre de variantes
différentes, selon que l’on préfère que les angles entre deux visées
soient conservés (représentations conformes), ou plutôt que les surfaces le soient (représentations équivalentes), ou que les surfaces
En français, on utilise le terme de Mercator Transverse Universelle.
Cette projection conforme est très employée dans le monde, en
particulier pour les cartes internationales. C’est une projection, ayant
pour pôle le centre de la Terre, de l’ellipsoïde sur un cylindre qui
est tangent à celui-ci tout le long d’un méridien de longitude λ, et
ceci sur une zone s’étendant entre les longitudes λ – 3o et λ + 3o, soit
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Construction
13
C 5 010 − 3
1
Référence Internet
C5010
TOPOGRAPHIE. TOPOMÉTRIE. GÉODÉSIE ____________________________________________________________________________________________________
1
donc sur un secteur de l’ellipsoïde de 6o de longitude. Hors de cette
zone, on utilise un nouveau cylindre dont l’axe, compris dans le plan
de l’équateur, est tourné lui aussi de 6o par rapport au précédent.
Pour couvrir l’ensemble de la Terre, on emploie donc 60 fuseaux.
Comme le rapport d’échelle serait ainsi toujours au moins égal à 1,
mais jamais inférieur, on applique en outre un facteur d’échelle supplémentaire valant 0,999 6, ce qui fait que l’altération linéaire varie
autour de l’unité, comme pour la projection Lambert.
Les images des parallèles et des méridiens forment des faisceaux
de courbes assez difficiles à calculer. Pour plus de détails, se reporter
en [Doc. C 5 010] à la référence [1].
1.3.3 Projection stéréographique
Il s’agit d’une projection ayant pour pôle un point de la surface
de la Terre, et l’ellipsoïde est alors projeté sur un plan tangent à
celui-ci en un point diamétralement opposé au pôle de projection.
Le cas le plus fréquent est celui de la projection stéréographique
polaire, le pôle de projection étant l’un des pôles de l’ellipsoïde. Ce
cas est employé en particulier pour compléter dans les zones polaires
(latitudes supérieures à 80o) la projection UTM. Alors les images des
parallèles sont des cercles et celles des méridiens un faisceau de
droites concourantes au pôle, seul point par ailleurs où l’altération
linéaire vaut 1. L’équateur est représenté en particulier par un cercle
de rayon double de celui de la Terre.
Cette projection est fréquemment employée pour des modèles
simples représentant des phénomènes à la surface de la Terre,
considérée alors comme une sphère : la projection stéréographique
revient alors à une inversion (au sens géométrique) de la sphère.
Citons, par exemple, le cas de la sismologie : les mécanismes au
foyer sont analysés en utilisant une projection stéréographique.
2. Méthodes
de mesures géométriques
2.1 Propagation des ondes
électromagnétiques dans l’atmosphère
Les phénomènes atmosphériques marquants et qui intéressent le
topographe sont les phénomènes de réfraction (variations de l’indice
de réfraction qui entraînent un changement de vitesse et de direction
des ondes électromagnétiques) et de diffusion (interaction du rayonnement soit avec les molécules et les atomes constitutifs de l’air
(diffusion Rayleigh), soit avec les aérosols et les petites poussières
en suspension dans l’air (diffusion de Mie). La diffusion Rayleigh est
liée intimement aux bandes d’absorption de l’ultraviolet ; elle est responsable de la couleur bleue du ciel et de la courbe enveloppe de
la transmission atmosphérique totale vers le bleu et le vert (figure 3).
La diffusion totale due à ces deux aspects est cause :
— de l’atténuation d’un faisceau lumineux donné ;
— de l’apport de lumière solaire parasite dans le champ de réception, qui se superpose au signal utile et qui représente un véritable
bruit optique.
Figure 1 – Réduction à la corde
Figure 3 – Transmission atmosphérique pour une visibilité de 11 km
Figure 2 – Projection Lambert
C 5 010 − 4
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Construction
14
Référence Internet
RAD7418
Photogrammétrie
par
1
Michel KASSER
Professeur de géodésie
Ancien directeur de l’ESGT et de l’ENSG
Haute École d’Ingénierie et de Gestion du canton de Vaud, Suisse
1.
1.1
1.2
Historique : photogrammétrie et vision par ordinateur ............
Photogrammétrie .....................................................................................
Vision par ordinateur ...............................................................................
2.
2.1
2.2
2.3
2.4
—
—
—
—
2
2
6
7
2.5
Principe général de la photogrammétrie .......................................
Vision stéréoscopique et acquisition des images .................................
Orientation interne ...................................................................................
Orientation externe ..................................................................................
Aérotriangulation, stéréopréparation et emploi
de la géolocalisation lors de la prise de vues ........................................
Exploitation photogrammétrique ...........................................................
—
—
8
9
3.
3.1
3.2
3.3
Automatisation de la photogrammétrie ........................................
Extraction automatique des points d’intérêt .........................................
Auto-étalonnage des optiques ................................................................
Corrélation automatique .........................................................................
—
—
—
—
9
9
10
11
4.
4.1
4.2
—
—
11
11
4.3
4.4
Avenir de la photogrammétrie .........................................................
Nouvelles applications aériennes liées aux drônes ..............................
Applications terrestres, levers linéaires (urbains, routiers, etc.)
corrélation diachronique .........................................................................
Vision par ordinateur ...............................................................................
Comparaison avec les scanners laser ....................................................
—
—
—
11
11
12
5.
Conclusions............................................................................................
—
12
6.
Glossaire – Définitions ........................................................................
—
12
Pour en savoir plus .......................................................................................
RAD 7 418 - 2
—
2
—
2
Doc. RAD 7 418
a photogrammétrie est une technique de topométrie basée sur des mesures
d’angles, figées lors des acquisitions d’images, et dont on se donne les
moyens de reconstituer les valeurs en utilisant de façon très complète la
connaissance de la géométrie exacte des images et des optiques employées
pour les acquérir. En toute rigueur, l’exploitation de cette géométrie exige de
gros moyens de calcul, mais pendant longtemps, ces calculs étaient effectués de
façon optique et mécanique, ce qui rendait le matériel utilisé extrêmement onéreux, donc réservé à des entreprises hautement spécialisées.
L’utilisation des moyens de calcul de plus en plus puissants a permis progressivement de reconsidérer toutes les étapes de traitement des images, et
plusieurs productions utilisant la photogrammétrie peuvent être entièrement
automatiques : tout particulièrement les modèles numériques de surface (MNS)
et les orthophotographies. Les acquisitions d’images ayant de leur côté, elles
aussi beaucoup progressé sous l’impact du développement des appareils photo
grand public et des drônes autopilotés, il restait à capitaliser tout le savoir photogrammétrique dans des logiciels, et toute une nouvelle génération de progiciels
est arrivée sur le marché, ne venant pas des producteurs traditionnels de matériels photogrammétriques. Ces outils permettent à des techniciens très peu au
fait de la photogrammétrie, voire même de la topométrie, de procéder à des traitements avec une bonne efficacité, démocratisant beaucoup cette technologie.
Ainsi, alors que les scanners laser ont créé toute une clientèle pour des nuages
Parution : août 2015 - Dernière validation : juin 2021
L
Copyright © –Techniques de l’Ingénieur –Tous droits réservés
15
RAD 7 418 – 1
Référence Internet
RAD7418
PHOTOGRAMMÉTRIE ________________________________________________________________________________________________________________
1
de points, est apparue une autre manière d’obtenir des nuages de points largement concurrentielle, basée sur des matériels et des logiciels très peu coûteux.
C’est donc tout un ensemble technologique entièrement rénové qui doit être
analysé, en étudiant par la même occasion certaines avancées issues de la vision
par ordinateur, tout à fait fondamentales pour comprendre la situation atteinte.
Beaucoup de perspectives sont ouvertes maintenant que tous les verrous techniques ont disparu.
D’ailleurs divers travaux de recherche, dans des domaines
connexes potentiellement usagers de cette technique, ont réinventé tout ou partie, par faute de publications accessibles. Quand
une technique est ainsi portée par les seuls industriels, la partie
récente en est bien souvent presque totalement couverte par le
secret industriel.
1. Historique :
photogrammétrie et vision
par ordinateur
1.1 Photogrammétrie
1.2 Vision par ordinateur
La photogrammétrie est une technique (§ 1.1 de [4]) qui a vu le
jour très rapidement à la suite de l’invention de la photographie au
XIXe siècle. Déjà au cours des siècles précédents, différents
peintres avaient étudié la perspective en utilisant des dispositifs
optiques simples : par exemple, Brunelleschi, Albert Dürer, etc.
L’idée était déjà de fixer sur le papier une image aussi neutre,
objective et conforme à la réalité que possible.
C’est un domaine qui a vu le jour dans les années 1980. Il s’est
développé dès que l’on a su numériser des images vidéo, et il
couvre de nombreuses applications orientées vers le temps réel.
On compte parmi celles-ci l’extraction automatique d’éléments
dans l’image, d’abord, simplement les contours, puis des éléments
de plus en plus évolués, tels que des objets connus (des pièces
mécaniques empilées en vrac), cela allant jusqu’à des objets très
complexes (reconnaissances de visages), et enfin, la volumétrie
des objets visibles, à partir d’images prises de deux points de vues
différents, et permettant un effet stéréoscopique. La vision par
ordinateur trouve son sens évidemment dans le domaine de la
robotique, l’objectif étant de permettre à une plate-forme autonome de cartographier en temps réel son environnement immédiat, avec une exigence de précision assez modeste, mais
variable ; comme pour tout être vivant, le besoin de précision est
d’autant plus grand que les objets sont proches, et la vision
humaine est parfaitement adaptée à ce besoin.
Par la suite, l’exploitation d’images pour mesurer les distances
de différents objects ne fut qu’un simple réemploi de techniques
de topographie, de type triangulation et intersection. Et comme les
publications de ces techniques, dès le XVIe siècle, le montraient
bien, les applications envisagées étaient d’abord de type militaire :
comment ajuster le tir d’un canon, comment cartographier une
place forte ennemie sans s’en approcher, etc.
C’est Aimé Laussédat, jeune militaire polytechnicien qui, le premier imagina la « metrophotographie », l’emploi de photographies
(inventées peu de temps auparavant) prises depuis des sites différents pour effectuer des mesures à distance et cartographier ainsi
un objet ou un site. Le prototype fut celui de la façade des Invalides à Paris en 1849 : les applications au domaine architectural
furent donc les premières à voir le jour. Puis, dès que Nadar produisit les premières images aériennes depuis un aérostat, et surtout lors de l’invention de l’aviation quelques décennies plus tard,
les applications militaires devinrent le moteur de la photogrammétrie naissante. Et dès la fin de la première guerre mondiale, cartographier rapidement à partir de vues aériennes fut la principale
préoccupation de la photogrammétrie, et ce de façon de plus en
plus industrielle.
Dans cette communauté règne une intense activité de recherche,
poussée par des demandes industrielles très fortes, qui atteignent
actuellement le grand public : citons par exemple, pour les
appareils photos actuels, les mises au point automatiques qui
localisent d’elles-mêmes la zone d’image sur laquelle elle doivent
s’exercer, ou même mieux, la photo qui ne se déclenche que
lorsque le sujet photographié sourit et ne ferme pas les yeux : une
véritable prouesse. Mais dans les domaines techniques professionnels, la multiplication de la surveillance vidéo a contribué, à son
tour, à susciter une demande considérable pour identifier de façon
automatique, parmi des millions d’heures d’enregistrements, tel
type d’objet, de véhicule, de visage, etc.
Édouard-Gaston Deville, formé par Laussédat, devenu arpenteur
en chef du Canada, produisit en 1896 le premier appareil de restitution stéréoscopique. La photogrammétrie, dénommée ainsi depuis
1893 par l’allemand Albrecht Meydenbauer qui en fit un grand
usage en architecture, se développa en parallèle dans plusieurs
pays, les relais industriels prennant naissance en Allemagne,
Suisse, France, Autriche, Italie, etc., avec pour conséquences, en
particulier :
– une recherche de précision au meilleur niveau, afin de réaliser
la meilleure cartographie possible avec un nombre minimal de
photos ;
– un travail avec un axe optique quasi vertical, et donc des photos à axes presque parallèles ;
– un travail de restitution qui peut prendre beaucoup de temps,
le délai entre la prise de vues et la cartographie résultante pouvant
se chiffrer sans inconvénients en mois, voire en années ;
– des développements qui, progressivement ont quitté le
domaine académique (avec de nombreuses publications), pour
devenir quasi exclusivement du domaine industriel, sans aucune
publication. Cela s’est traduit dans les dernières décennies, lors du
passage au numérique, par de véritables boîtes noires sans aucun
moyen pour l’usager de savoir ce qu’il s’y faisait exactement.
RAD 7 418 − 2
La photogrammétrie et la vision par ordinateur partagent donc
indiscutablement une même recherche de mesure 3D à partir
d’images permettant la stéréoscopie, mais leurs passés respectifs
et leurs clientèles très différentes les ont amenés à se développer
de façon complètement parallèle, avec peu de zones communes.
2. Principe général
de la photogrammétrie
2.1 Vision stéréoscopique
et acquisition des images
2.1.1 Aspects géométriques
Le principe général est basé sur la perception humaine du relief
par observation stéréoscopique. Dans le cas de la photogram-
Copyright © –Techniques de l’Ingénieur –Tous droits réservés
16
Référence Internet
RAD7418
________________________________________________________________________________________________________________ PHOTOGRAMMÉTRIE
métrie aérienne, un avion équipé d’une chambre de prise de vues
vole au-dessus d’une région, de manière à ce qu’une partie du terrain figure sur au moins deux clichés correspondant à deux positions successives de l’avion.
– enfin, utilisation des images stéréoscopiques localisées et
orientées, sous diverses formes possibles : restitution (mesure de
tous les objets spécifiés et identification de leur nature), orthophotographie (image corrigée des effets de perspective, recalculée
pour être en tous points superposable à une carte), ou simple
MNS (Modèle numérique de surface, obtenu par corrélation automatique des images).
En observant simultanément un cliché avec un œil et le second
avec l’autre œil grâce à un outil optique approprié (stéréoscope à
miroirs, appareil de restitution, ordinateur équipé de lunettes spéciales, etc.), la zone de terrain vue sur les deux images apparaît en
relief. La vision humaine permet en effet de voir en relief selon une
large gamme de dispositions relatives de ces deux images. Mais si
nous disposons ces dernières dans une position relative exactement semblable à celle qu’elles avaient au moment de la prise de
vue, alors l’image stéréoscopique observée est une exacte homothétie du terrain réel photographié, pour autant que la chambre de
prise de vue soit parfaite (c’est-à-dire qu’elle n’apporte aucune distorsion à l’image, on parle alors de chambre « métrique »), ou que
la distorsion de l’image ait été corrigée. Pour exploiter cette scène
stéréoscopique, l’appareil de restitution superpose à chaque image
un pointeur, le « ballonnet », que la vision humaine interprètera
comme un petit objet dont la position est déplaçable à volonté en
hauteur au-dessus de l’image du terrain grâce à des commandes
appropriées.
2.1.2 Vision humaine
La vision humaine est une des bases de la photogrammétrie, il
est donc utile d’en rappeler quelques aspects :
– la représentation des couleurs par l’œil humain est obtenue en
analysant les scènes selon trois canaux seulement, et pour cette
raison les dispositifs restituant des couleurs (imprimerie, écrans
vidéo) utilisent nominalement eux aussi seulement trois canaux
(rouge, vert et bleu pour les photophores des écrans en synthèse
additive, cyan, magenta et jaune pour les pigments servant de
filtres pour l’imprimerie en synthèse soustractive, cf. § 1.3 de [1]).
Ce n’est qu’avec la généralisation de l’imagerie numérique que
l’on a pu aisément proposer un quatrième canal dans le proche
infrarouge, très utile pour l’étude de la végétation, et très facile à
obtenir, compte tenu de la sensibilité spectrale normale des
capteurs CCD ou CMOS, basés sur du silicium. Ce n’est donc que
depuis le début du XXIe siècle que des images 4 bandes sont
devenues disponibles, pratiquement sans aucun surcoût ;
– la mesure des distances par l’œil humain repose sur plusieurs
mécanismes. La vision stéréoscopique est efficace dans la gamme
de dimensions du corps humain, avec une précision qui décroît
avec le carré de la distance, et au-delà elle est relayée par la
mesure de l’angle apparent sous lequel sont vus les différents
objets, dont le cerveau a identifié les dimensions auparavant. La
résolution angulaire de l’œil humain est variable, mais elle n’est
généralement rarement meilleure que 1 milliradian. Jusqu’à l’arrivée de la photogrammétrie numérique, la base de la mesure était
l’œil, et donc toute la précision des mesures en dépendait : l’opérateur avait deux rôles, celui de pointer en 3D avec précision, et celui
d’identifier les objets pointés. Pour la tache de pointer, il a depuis
été utilement secondé par les outils numériques de corrélation, qui
peuvent être beaucoup plus précis que la corrélation binoculaire
effectuée par notre cerveau. La géométrie d’acquisition des images
a donc pu évoluer depuis lors, autorisant des situations à faible
rapport entre la distance inter-images et la distance à l’objet étudié
(appelé rapport B/H, pour base/hauteur). C’est une évolution très
avantageuse, car plus la distance inter-images est faible et moins il
y a de zones cachées non vues en stéréo dans une scène donnée.
L’opérateur aura donc pour travail de promener ce ballonnet
dans l’image au contact de tous les objets à mesurer, pendant que
l’appareil archivera toutes les informations numériques produites.
Pour que l’image observée soit une copie exacte de l’objet
mesuré, il faut contraindre un certain nombre de points dans
l’image à se trouver à des positions relatives similaires aux leurs
sur l’objet. Pour un couple stéréoscopique donné, on montre qu’il
faut 5 points de coordonnées connues pour que l’image 3D soit
parfaitement définie, et donc en pratique au moins 6 afin d’assurer
un minimum de contrôles. Ces points peuvent être mesurés sur le
terrain directement : cette opération est appelée stéréopréparation.
Lorsque de nombreux couples stéréoscopiques sont enchaînés
(bande de clichés aériens), le nombre de points terrain à mesurer
peut être considérablement limité en analysant toute les
contraintes géométriques qui se transmettent de cliché à cliché. Le
processus repose sur l’extraction des points d’intérêt, faciles à
identifier, puis a les mettre en correspondance dans les différentes
images (points « homologues »), ce qui va engendrer ces
contraintes géométriques nécessaires au calcul. Le processus
numérique, qui exige une grosse puissance de calcul, désormais
facilement accessible, s’appelle aérotriangulation. Par ailleurs, la
manipulation des grandes quantités de données numériques
extraites est résolue par des logiciels spécialisés, permettant la
mise en forme finale des données sorties de l’appareil, la saisie
des corrections en provenance des équipes de terrain (qui
complètent les levers de toutes les informations non visibles sur
les clichés et corrigent les points douteux, phase dite de
complètement), et enfin le formatage et l’édition des données
selon les besoins du client.
2.1.3 Acquisition d’images
2.1.3.1 Historique des caméras aériennes
avant le numérique
La séquence complète de traitement photogrammétrique des
images peut finalement se résumer ainsi :
Les premières photos aériennes ont été prises par Nadar sur Paris
en 1858, et pendant plusieurs décennies les images ont été obtenues sur des plaques de verre, support évidemment très délicat
d’emploi en avion. Le support film n’apparaît qu’après l’invention
du cinéma à la fin du XIXe siècle, mais ne se généralisera sous le
format 24 × 24 cm qu’au milieu du XXe siècle. Cette dimension
deviendra une norme dans les décennies suivantes jusqu’à la fin de
cette technologie au début du siècle suivant. Les spécifications des
prises de vues aériennes prennaient aussi largement en compte les
limitations dues à la sensibilité des films, le temps de pose étant
limité par la vitesse de l’avion, ce qui exigeait pendant longtemps
que le soleil soit haut dans un ciel clair. Cette situation impliquait
des contrastes forts entre zones à l’ombre et celles au soleil, ce qui
est peu favorable pour le travail d’exploitation, d’autant que la dynamique des films était trop réduite pour un post-traitement de rééquilibrage radiométrique. Curieusement ces exigences ont perduré
même lorsque les chambres à compensation de filé dans les années
1990 (où le film est déplacé pendant le temps d’exposition de façon
– tableau d’assemblage : position approximative de chaque
image ;
– orientation interne : identification des paramètres géométriques de l’acquisition d’image, comme la distance focale, la position de l’optique par rapport à la zone sensible, la distorsion de
l’optique, etc. ;
– identification des points d’intérêt dans chaque image ;
– mise en correspondance de ces points et établissement de la
liste des points homologues entre les différentes images ;
– aérotriangulation et orientation externe, donnant les positions
et orientations relatives des images ;
– orientation absolue ou basculement : utilisation des points
d’appui sur le terrain, positions GNSS de la caméra obtenues dans
l’avion, etc. pour mettre l’ensemble à l’échelle et dans le système
de référence désiré ;
Copyright © –Techniques de l’Ingénieur –Tous droits réservés
17
RAD 7 418 – 3
1
1
18
Référence Internet
TE6704
Interférométrie radar
par
1
Didier MASSONNET
Chef du projet PHARAO
Centre National d’Études Spatiales, Toulouse, France
1.
Principales propriétés des images radars ......................................
2.
Conditions de réalisation de l’interférométrie radar ..................
—
5
3.
Informations fournies par l’interférométrie radar .......................
—
6
4.
Procédure de réalisation des interférogrammes ..........................
—
9
5.
Traitements complémentaires ...........................................................
—
11
6.
Éléments d’interprétation des données d’interférométrie ........
—
13
7.
Applications et perspectives de l’interférométrie radar............
—
14
8.
Interférométrie non conventionnelle...............................................
—
17
9.
Conclusion...............................................................................................
—
18
—
18
10. Glossaire – Définitions .........................................................................
Pour en savoir plus ........................................................................................
TE 6 704 - 2
Doc. TE 6 704
’interférométrie par radar, terme consacré par l’usage, désigne en réalité
une technique de comparaison de la phase entre images radars. En effet, si
la création d’une image radar (le traitement de synthèse d’ouverture) peut être
considérée comme l’organisation d’une interférence constructive entre les différents échos recueillis, cette comparaison est essentiellement la soustraction
des phases de deux images radars préalablement superposées géométriquement, à laquelle on soustraira d’autres éléments systématiques comme l’effet
des trajectoires à l’origine des deux prises de vue, la topographie du terrain
dans les limites de la connaissance qu’on en a, voire les prédictions de
modèles de déformation de subsidence, séismes ou autres. Cette différence,
l’interférogramme, est une image de longueurs, puisque la phase est directement reliée à la longueur d’onde utilisée par le radar. Elle est cependant
ambiguë car elle ne donne que le reste de toute différence géométrique
constatée en aller-retour entre les deux images modulo la longueur d’onde. Le
nombre entier de longueurs d’onde présent dans la mesure doit être restitué
par d’autres méthodes. Elle est en général précise puisque les conditions de
rapport signal à bruit permettent souvent d’apprécier la phase à 10 degrés
près, voire mieux, ce qui, selon la longueur d’onde du radar, peut correspondre à des précisions de l’ordre du millimètre.
L‘interférométrie par radar, ou plus simplement interférométrie radar, peut
calculer la topographie avec des précisions métriques, voire submétriques et
révéler les déformations du sol ou des ouvrages d’art avec des précisions millimétriques. Elle contient également la différence des contributions de la
variation de l’épaisseur atmosphérique lors des deux prises de vue, en général
considérée comme un artefact plutôt gênant. Ce dernier est potentiellement
révélateur de la pression atmosphérique, de la turbulence et du contenu en
eau atmosphérique, mais sans aucune discrimination verticale.
Parution : août 2015 - Dernière validation : juillet 2019
L
Copyright © –Techniques de l’Ingénieur –Tous droits réservés
19
TE 6 704 – 1
Référence Internet
TE6704
INTERFÉROMÉTRIE RADAR ___________________________________________________________________________________________________________
1
L’usage de l’interférométrie radar s’est généralisé lorsque des satellites
radars, notamment à partir de la mission ERS-1 (European Remote Sensing 1,
lancé en 1991), ont permis d’établir une archive planétaire globale et homogène permettant des comparaisons avant et après un événement. Des
missions dédiées, principalement la mission SRTM (Shuttle Radar Topography
Mission) conduite en février 2000, ont permis d’établir une référence mondiale
de modèles de terrains de précision moyenne.
La technique est facile à mettre en œuvre et ne comprend que des opérations bien connues (corrélations d’images, ré-échantillonnages, soustractions
et combinaisons linéaires) et des simulations géométriques simples destinées
à traduire en différence de phase les conditions expérimentales connues telles
que la trajectoire des porteurs et la topographie du terrain.
Nous verrons que le déroulement de phase et les autres filtrages appliqués
aux interférogrammes ne méritent pas l’importance qui leur a été accordée à
l’aube de cette technique.
En revanche, les techniques d’interprétations basées sur les logiques spatiales et temporelles des prises de vue restent primordiales, mais s’acquièrent
facilement.
L’interférométrie radar a conquis des domaines d’application de plus en plus
variés. Elle peut donner lieu à des réalisations dédiées très performantes, mais
reste principalement tributaire de la disponibilité massive et aisée des données
produites par les missions spatiales embarquant des radars à synthèse
d’ouverture.
1. Principales propriétés
des images radars
grès sur les puissances de calcul ont permis de généraliser le
traitement numérique des données qui garantissait la reproductibilité parfaite des résultats.
Que ce soit par le biais des programmes de recherche initiés par
les agences spatiales ou par des circuits commerciaux, il est
devenu très facile d’établir la liste des images disponibles sur un
site donné, de connaître les orbites du satellite lors des prises de
vue et donc de déterminer les caractéristiques attendues de la
comparaison d’une paire d’images, telle que sa sensibilité à la
topographie, puis de commander les images avant de les traiter.
L’avènement concomitant d’Internet a contribué à cette facilité.
1.1 Sources de données
Les instruments radars ont été placés sur des avions dès les
années 1940, donc très peu de temps après leur invention, et la
plupart des progrès en imagerie radar ont été accomplis à partir
d’images aéroportées, y compris les premiers essais d’interférométrie radar [1]. Encore aujourd’hui, les systèmes aéroportés
peuvent offrir une richesse de combinaisons unique entre interférométrie et polarimétrie, antennes multiples permettant divers
types d’interférométrie (perpendiculaire et le long de la trace, voir
§ 7.5.3), longueurs d’onde multiples. En effet, la relative abondance de puissance d’un avion, sa charge utile importante, ses
capacités d’enregistrement de données offrent de nombreuses
possibilités. En contrepartie, l’avion produit des données dont la
couverture est limitée avec une diversité des angles d’incidence
importante en raison de la faiblesse du rapport entre son altitude
de vol et la largeur de l’image.
Ces possibilités existent encore avec les satellites d’aujourd’hui,
qui offrent des modes divers (grand champ ou ScanSar par
exemple), des angles de visée variés, voire des possibilités
d’utiliser des polarisations variées. Il faut cependant être conscient
que plus un satellite a de possibilités, moins il produit une base de
données homogène, ce qui réduit la combinatoire offerte pour
l’association interférométrique des images de l’archive. Les opérateurs de satellite veillent en général à maintenir une configuration
basique pour produire une archive homogène globale. Par ailleurs
les images de satellites identiques ou opérants sur la même bande
de fréquence et sous le même angle d’incidence peuvent se
combiner entre elles.
Après l’essai prometteur, mais de courte durée, du satellite
SEASAT en 1978 ou les expériences SIR (Shuttle Imaging Radar )
embarquées sur la navette spatiale [2], la décennie 1990 a vu
l’explosion des applications de l’interférométrie radar, grâce aux
premières missions de radar à synthèse d’ouverture de longue
durée avec ERS-1 puis ERS-2 en Europe, J-ERS1 au Japon, et
RadarSat au Canada. Ces satellites ont produit des bases de données d’image couvrant la quasi-totalité des terres émergées dans
des conditions géométriques qui permettaient dans la plupart des
cas de comparer par interférométrie des images acquises sur le
même site à des dates différentes. Dans le même temps, les pro-
TE 6 704 − 2
L’interférométrie a aussi suscité des missions dédiées, comme
SRTM (Shuttle Radar Topography Mission) [3] qui a couvert
l’essentiel des terres émergées en les observant simultanément
par deux antennes radars en bande C séparées par un mât
déployable de 60 m. Cette mission a permis quelques années plus
tard la création d’un fichier topographique global de résolution
moyenne disponible gratuitement. On peut encore citer les missions Tandem-ERS ou Tandem-X, qui ont permis ou permettent
d’opérer deux satellites compatibles avec des écarts de survol d’un
jour (ERS), très favorables aux applications sur les glaces
Copyright © –Techniques de l’Ingénieur –Tous droits réservés
20
Référence Internet
TE6704
____________________________________________________________________________________________________________ INTERFÉROMÉTRIE RADAR
continentales, ou de façon quasi simultanée (Tandem-X), essentiellement pour des objectifs topographiques [4].
Pour finir, des expériences d’interférométries limitées ont été tentées sur les instruments radars observant d’autres corps célestes
(Vénus, Titan).
suffisamment forte pour occulter toutes les autres. Le rayonnement diffus qui en résulte revient en partie vers le radar et présente une statistique particulière, dite de speckle (chatoiement).
Les rayons quatre et cinq rencontrent des cibles situées à la même
distance du radar. Elles seront donc irrémédiablement confondues
dans le signal : c’est le phénomène de recouvrement (overlay ). Sur
les images radars, les versants des montagnes qui font face au
radar apparaissent écrasés. Le même phénomène existe au niveau
élémentaire, pour les cibles « volumiques » pour lesquelles l’écho
peut venir de cibles à différentes altitudes, par exemple une forêt
dans laquelle l’onde pénétrera plus ou moins. Enfin, le sixième
rayon illustre le masquage (shadowing ) : des parties du paysage
sont géométriquement inaccessibles et ne retournent aucun écho.
Seul le bruit de l’appareil est enregistré pour les distances situées
entre les deux traits.
1.2 Propriétés radiométriques
Les propriétés radiométriques des images radars sont largement
abordées dans la littérature [TE 6 702] [5]. Nous n’en rappelons
que les points essentiels. Sur la figure 1, nous avons rassemblé les
principaux comportements des différentes cibles par rapport au
radar. En radar monostatique, l’antenne d’émission est aussi
l’antenne de réception donc la force du signal dépend de la capacité de la cible à renvoyer du signal dans la direction d’où il est
venu. Par ailleurs les échos sont classés en distance par le temps
mis par l’impulsion pour effectuer le trajet aller-retour. Le radar
doit donc viser vers un côté pour éviter une ambiguïté entre les
points à même distance du radar, mais à gauche ou à droite de la
trajectoire. Dans ces conditions, nous considérons les situations
décrites par la figure 1 et représentées par les différents rayons
partant du radar en commençant par le plus vertical et en
continuant dans le sens inverse des aiguilles d’une montre. Le
radar se déplace perpendiculairement à la figure. Le premier rayon
rencontre une surface très plate, par exemple une étendue d’eau
calme. Celle-ci se comporte comme un miroir mais, comme le
radar n’est pas en face du miroir, aucun signal ne revient vers lui.
Ce type de surface ne sera pas vu et seul le bruit de l’instrument
sera enregistré. Cependant, dès que l’eau est un peu agitée, une
partie de l’écho pourra être reçue par le radar. Le deuxième rayon
est typique de la plus grande efficacité possible : la double
réflexion. C’est le principe du cataphote avec rebond sur des
surfaces perpendiculaires entre elles qui renvoient l’écho vers sa
source. Les réflecteurs radars sur les mâts des navires exploitent
ce principe. Le troisième rayon est caractéristique de la cible la
plus banale, qui mélange une multitude des cibles élémentaires au
sol (cailloux, branches ou autres objets) dont aucune n’est
Bien entendu, la longueur d’onde utilisée par le radar est importante. Elle donne l’échelle de tous les phénomènes. Une cible
« élémentaire » en bande L (24 cm de longueur d’onde) peut s’avérer composée en bande X (3 cm). Il en est de même des profondeurs de pénétration dans les cibles. Dans certains cas, la bande L
pourra atteindre le sol alors que la bande X sera arrêtée par le
sommet de la végétation. Les longueurs d’onde utilisées par les
instruments radars et les largeurs de bande associées sont strictement réglementées : outre les bandes X et L, on trouve la bande C
vers 6 cm et les bandes Ka et Ku encore plus courtes que la bande
X. Les bandes S (10 cm) et P (70 cm) restent exceptionnelles.
1.3 Propriétés géométriques
Le radar envoie un signal radioélectrique de référence composé
d’une amplitude et d’une phase sur une longueur d’onde porteuse
avec une largeur de bande associée. Au retour, ce signal est
mélangé avec la porteuse, subit un filtrage passe-bas, puis est
échantillonné avec une fréquence au moins égale à la largeur de
bande. Les échantillons ainsi produits sont toujours composés
d’une amplitude et d’une phase.
6
5
4
3
1
2
Figure 1 – Schéma illustrant la géométrie en distance
Copyright © –Techniques de l’Ingénieur –Tous droits réservés
21
TE 6 704 – 3
1
Référence Internet
TE6704
INTERFÉROMÉTRIE RADAR ___________________________________________________________________________________________________________
Distance
1
B
C
A
D0
T0
Azimut
Taille d'antenne
2 échantillons
Figure 2 – Schéma illustrant la synthèse d’ouverture et la géométrie des images radars
L’échantillonnage du retour d’un écho produit une ligne
d’échantillons rangés en distance. Au fur et à mesure de sa progression, qu’on appelle la direction de l’azimut, le radar envoie des
impulsions au rythme de sa fréquence de répétition, ce qui produit
les lignes successives de l’image. En termes mathématiques, nous
pouvons dire que l’image radar est formée de nombres complexes
dont la moyenne est nulle, alors qu’une image optique est formée
de nombres positifs, proportionnels au nombre de photons reçus
pour chaque pixel. Les données radars sont d’ailleurs habituellement représentées non pas par une amplitude et une phase, mais
par une partie réelle et une partie imaginaire, qu’on appelle quelquefois canal « en phase » et canal « en quadrature ». La résolution initiale d’une image radar dans le sens d’avancement (azimut)
est médiocre, car proportionnelle à la distance et au rapport de la
longueur d’onde sur la longueur de l’antenne (limitation inévitable
due à la diffraction). Avec des distances de l’ordre de 1 000 km et
des rapports de l’ordre de 100, la résolution naturelle est de plusieurs kilomètres mais l’échantillonnage créé par la fréquence de
répétition est bien plus serré. Les conditions d’échantillonnage
imposent d’ailleurs d’acquérir au moins deux échantillons quand
le porteur avance de la longueur de l’antenne, soit quelques
mètres entre deux échantillons. La figure 2 symbolise l’évolution
de la distance au radar d’une cible au sol. Les traits verticaux sont
les instants des impulsions et les cercles différents exemples de la
zone éclairée par l’antenne. Pour traiter cette cible, la synthèse
d’ouverture consiste à fouiller tous les échantillons disponibles la
concernant avec un filtrage adapté capable de détruire les
contributions de tous les points au sol à l’exception de celui qui
nous intéresse. La variation de distance par rapport au radar de
cette cible se traduit par une variation de phase dans les différents
échantillons, qui est annulée par le filtre. Les contributions de la
cible, et d’elle seule, sont additionnées en phase. Ces différentes
contributions ne comprennent pas nécessairement le moment où
la cible passait au plus près du radar (cas A de la figure 2) car
l’antenne pouvait regarder vers l’avant (cas B de la figure 2), on
parlera de « Doppler moyen positif », ou vers l’arrière (« Doppler
négatif », cas C de la figure 2) avec un décalage éventuellement
supérieur à sa largeur. On comprend cependant que rien n’empêche le traitement de restituer le point ainsi obtenu à son endroit de
passage au plus près T0 : c’est la restitution à Doppler zéro adoptée la plupart du temps. Les propriétés géométriques des images
radars découlent d’une part, du principe d’imagerie en distance et
d’autre part, du principe de synthèse d’ouverture.
en distance et fréquence de répétition, ont avec la porteuse des
rapports entiers ou fractionnaires qui ne sont affectés par aucune
erreur. Ainsi, le rapport entre la longueur d’onde et la taille du
pixel en distance est connu sans erreur. En second lieu, la
contribution d’un point au sol est repérée par sa distance au radar
et son temps de passage au plus près du radar par la restitution à
Doppler zéro, et ce même si ce point au plus près n’a pas été
éclairé par l’antenne. Imaginons par exemple un mur s’élevant perpendiculairement à l’avancement du satellite. Si l’antenne regarde
un peu vers l’avant, l’image caractérisera la face avant du mur. Si
l’antenne regarde vers l’arrière, ce sera la face arrière, qui présentera éventuellement un aspect différent. Cependant, dans les deux
cas, l’image du mur sera située à son point de passage au plus
près.
Si la Terre est assimilée à une sphère, un point de l’image radar
est donc l’intersection de trois surfaces : la sphère terrestre, la
sphère centrée sur le radar au moment de la prise de vue du point
et dont le rayon est la distance d’observation du point, enfin le
plan perpendiculaire à la vitesse du satellite au moment de la prise
de vue et qui contient la position du radar au même moment.
Deux points correspondent à ces intersections, selon que le radar
regarde à droite ou à gauche. Contrairement aux images optiques,
ce positionnement ne fait appel à aucune mesure angulaire.
Les propriétés géométriques des images radars sont elles aussi
largement détaillées dans [TE 6 702] [5].
1.4 Cas particulier du signal de phase
Le pixel d’une image radar est caractéristique d’une surface
correspondant à une tranche en distance, liée à la fréquence
d’échantillonnage, et une tranche en azimut, correspondant à
l’avancement du porteur entre deux répétitions de l’émission.
Dans le cas le plus général, cette surface est constituée de très
nombreuses cibles élémentaires qui contribuent à la formation de
la valeur du pixel en ajoutant leurs amplitudes et phase propres,
ces dernières étant de plus modifiées par les distances relatives
des cibles à l’intérieur du pixel. Cette construction est fortement
aléatoire et explique que même des pixels composés de cibles
identiques et en nombre à peu près équivalent donnent des résultats différents qui se traduisent pour l’amplitude par le phénomène
de speckle. La statistique de la phase correspond, quant à elle, à
une répartition uniforme sur toutes les valeurs possibles. On ne
voit pas pourquoi l’une d’entre elle serait privilégiée.
L’utilisation classique des images radars consiste à rejeter le
signal de phase et à effectuer une moyenne sur les pixels voisins,
ce qui dégrade la résolution géométrique mais diminue la
Les incertitudes de positionnement d’une image radar diffèrent
totalement de celles d’une image optique. En premier lieu, le radar
est une horloge dont la fréquence la plus élevée est celle de la porteuse, par exemple 10 GHz pour la bande X à 3 cm de longueur
d’onde. Toutes les autres fréquences, fréquence d’échantillonnage
TE 6 704 – 4
Copyright © –Techniques de l’Ingénieur –Tous droits réservés
22
Référence Internet
R1384
Du GPS historique aux GNSS :
utilisation pour le positionnement
de haute précision
par
1
Michel KASSER
Ancien directeur de l’ESGT de l’ENSG et de la filière Géomatique à la HEIG-VD,
Yverdon, Suisse
1.
1.1
1.2
1.3
1.4
1.5
2.
2.1
2.2
2.3
Historique et principes généraux des GNSS ...................................
Historique ....................................................................................................
Principes généraux des GNSS pour leur emploi
en haute précision ......................................................................................
1.2.1 Constellations GNSS .........................................................................
1.2.2 EGNOS et les compléments aux GNSS ...........................................
Stations GNSS permanentes (RGP) ..........................................................
Types de récepteurs GNSS haute précision et grand public ..................
Méthodes de calcul des signaux GNSS en haute précision ....................
Systèmes de référence employés
et contraintes opérationnelles ............................................................
Réseaux anciens .........................................................................................
Référentiels modernes de la géodésie, ITRF et WGS 84 .........................
Contraintes opérationnelles .......................................................................
R 1 384v3 - 2
—
2
—
—
—
—
—
—
3
3
5
5
5
6
—
—
—
—
7
7
7
8
3.
3.1
3.2
Exemples d’utilisation ...........................................................................
Surveillance d’ouvrages d’art et mesure de déformations du sol ..........
Un chantier ancien typique : test en charge par GPS d’un pont
de grande taille ...........................................................................................
—
—
9
9
—
10
4.
Conclusion ................................................................................................
—
11
5.
Sigles, notations et symboles .............................................................
—
12
Pour en savoir plus .......................................................................................... Doc. R 1 384v3
es GNSS (Global Navigation Satellite System) représentent un moyen de
positionnement devenu fondamental depuis le début du XXIe siècle. Initialement, les usages ont commencé avec le GPS mis au point par l’armée
américaine, dont la conception date des années 1970, et sont devenus réellement opérationnels (industrialisation des récepteurs, nombre de satellites en
service…) depuis le début des années 90. Puis d’autres systèmes spatiaux de
même type, russe (Glonass), chinois (Beidou/Compass), européen (Galileo,
seul système purement civil) ont atteint, eux aussi, un caractère pleinement
opérationnel.
Les GNSS forment aujourd’hui un système de positionnement extrêmement
employé par une large gamme d’usagers techniques (navigation aérienne,
navigation automobile, travaux des géomètres, génie civil…) mais aussi et
surtout par le grand public (un récepteur GNSS est souvent inclus dans les
téléphones portables : guidage de piétons, localisation de photos, navigation
automobile, etc.). La gamme d’exactitude des GNSS est très variable selon les
technologies utilisées, du centimètre jusqu’à quelques mètres.
Parution : mai 2022
L
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
23
R 1 384v3 – 1
Référence Internet
R1384
DU GPS HISTORIQUE AUX GNSS : UTILISATION POUR LE POSITIONNEMENT DE HAUTE PRÉCISION _________________________________________________
1
Cet article présente des utilisations des GNSS pour des mesures de haute
précision, limitées jusqu’ici à des contextes purement professionnels, mais qui
deviennent désormais accessibles au grand public. L’historique du positionnement par satellites permet tout d’abord de comprendre la situation actuelle et
d’anticiper celle des prochaines décennies. Les problèmes occasionnés par
l’emploi des divers systèmes de référence sont évoqués et les procédés de
mesure, les différents types de matériels et les limitations d’utilisation sont
analysées. Une illustration typique est présentée, celle de l’auscultation d’un
ouvrage d’art.
ce service, et qu’aucun système opérationnel ne pouvait être basé
dessus. Le fait d’accéder au cm en temps différé et sans aucun
accès aux codes de cryptage n’avait pas du tout été envisagé.
1. Historique et principes
généraux des GNSS
Au début des années 1990, le paysage technique s’est mis à évoluer très vite. Dans le domaine industriel, les premiers circuits intégrant sur une puce la réception du signal GPS, pour un coût voisin
de 1 €, apparaissent sur le marché. Immédiatement, de petits récepteurs GPS grand public sont diffusés, destinés à la randonnée et à
la navigation de plaisance. Les pilotes de petits avions commencent
également à s’en servir, malgré les recommandations inverses des
autorités des États-Unis, puisque les émissions GPS risquaient à
tout moment d’être inaccessibles pour des applications civiles. Et
rapidement est arrivé le moment où, si ces signaux avaient été
interrompus subitement, c’étaient probablement plusieurs centaines d’avions sur le territoire des États-Unis qui auraient été
perdus : l’armée ne pouvait donc plus faire ce qu’elle voulait sans
créer un risque politique majeur.
1.1 Historique
L’ère spatiale commence en 1957, avec le lancement du premier
satellite Spoutnik (URSS). Le satellite émet un simple signal radio
pendant plusieurs semaines. Ce signal détectable par tous est
observé par les forces militaires américaines. Mesurant l’effet Doppler
sur ce signal, très rapidement l’armée américaine imagine et met au
point un dispositif mondial de localisation pour sa marine et le guidage de ses missiles : le système Transit est ainsi opérationnel dès le
milieu des années 1960, avec une exactitude de plusieurs hectomètres et un temps de réponse de plusieurs heures. L’étape suivante,
toujours militaire, voit les développements parallèles aux États-Unis
et en URSS de systèmes de précision métrique en temps réel, appelés GPS (Global Positioning System, États-Unis) et Glonass (Global
Navigation Satellite System, URSS). Les premiers satellites sont lancés dès la fin des années 1970, ces opérations ne suscitant guère
d’intérêt dans le monde civil puisque les signaux émis étaient cryptés
et donc inutilisables en dehors des armées et de leurs alliés. À noter
que les approches technologiques de la partie spatiale sont longtemps restées très différentes entre les États-Unis et l’URSS, la capacité soviétique de lancement de satellites était tellement développée
que la norme était de faire des lancements très fréquents (plusieurs
dizaines par an), avec des satellites à courte durée de vie : pour les
Glonass, trois ans seulement.
En parallèle, des avancées étaient obtenues. Par exemple, avec la
possibilité de se localiser instantanément même avec une précision
limitée à 100 m, la nécessité de mettre les cartes dans un format
numérique est apparue : pour le grand public, que faire de coordonnées fournies, s’il n’y a pas de bases de données géographiques
associées ? Le GPS en mode différentiel avec une précision centimétrique restait donc seulement utilisé par le public très limité des géomètres et les géodésiens. Le système était également mis en œuvre
dans des applications très spécifiques, par exemple comme dispositif
universel de synchronisations d’horloges, comme les transactions
bancaires. Puis, les données nécessaires devenant disponibles,
le GPS est devenu de plus en plus utilisé pour de nombreuses applications grand public. En parallèle, la navigation aérienne commerciale
cherchait par tous les moyens à avoir le droit de s’en servir : les autorités concernées ont donc décidé de se donner la possibilité de « qualifier » en temps quasi réel les signaux envoyés : pour un avion
commercial dans une phase critique (atterrissage sans visibilité par
exemple), le principe est que, si le GPS se met à donner des coordonnées fausses, il faut organiser une chaîne d’informations fiable pour
que le pilote le sache immédiatement. Pour que cette « intégrité » du
signal soit disponible, toute une logistique a alors été mise en place,
avec des satellites géostationnaires, et un réseau de stations au sol, le
tout fonctionnant sans aucune collaboration avec les militaires opérateurs du GPS.
Au début des années 1980, des radioastronomes ont imaginé de
traiter ces émissions radio GPS des satellites Navstar (dénomination de l’ensemble des satellites GPS), comme s’il s’agissait de
radiosources, donc de signaux considérés comme totalement
aléatoires. En corrélant a posteriori ces mêmes signaux reçus et
enregistrés par deux antennes dans deux sites différents sur le
principe de la VLBI (voir ci-après), ils ont rapidement prouvé la
possibilité d’en déduire la distance entre ces deux antennes avec
une précision centimétrique : le mode différentiel du GPS était né.
Très rapidement, divers industriels ont commencé à mettre sur le
marché des récepteurs GPS destinés à de telles mesures différentielles, d’abord à destination des géodésiens au sein des instituts
géographiques nationaux chargés, dans chaque pays, de mettre à
disposition un système de référence géodésique (en France, l’IGN).
Ensuite le marché s’est ouvert aux géomètres, les prix des matériels baissant très régulièrement. Cependant, le développement et
l’utilisation du GPS étant destinés à des applications militaires, son
utilisation avec des performances optimisées ne pouvait pas être
garantie pour des applications civiles. Ainsi, les applications militaires agréées bénéficiaient d’une précision de localisation voisine
de 1 m alors que les applications civiles n’avaient accès qu’à des
modes dégradés, par exemple avec une précision de localisation de
100 m. De plus, les autorités menaçaient d’interrompre ce service à
tout moment. Mais cette situation provoquait un certain agacement
de la part des propriétaires du GPS, l’armée des États-Unis, qui
entendait bien rappeler qu’elle pouvait à tout moment interrompre
R 1 384v3 – 2
Les États prenant conscience de leur dépendance vis-à-vis des
autorités militaires des États-Unis, deux grandes entités politiques
ont alors décidé de lancer leurs propres systèmes de géolocalisation, Galileo en Europe, Beidou en Chine. Le système russe Glonass
a été mis en veilleuse à la chute du communisme en 1991 et n’a pu
être de nouveau opérationnel que deux décennies plus tard.
Les développements industriels se sont poursuivis de manière
intense. Pour les récepteurs de haute précision, destinés aux géodésiens et aux géomètres, le nombre de canaux intégrés sur une puce
est monté à plusieurs centaines, avec la capacité de réception des
quatre GNSS, et en outre celle d’autres constellations sans couverture
mondiale, tels IRNSS (Inde) et QZSS (Japon). Ce nombre très important de canaux permet la réception simultanée de tous les satellites
en visibilité (un nombre de 50 est fréquemment atteint), sur leurs trois
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
24
Référence Internet
R1384
__________________________________________________ DU GPS HISTORIQUE AUX GNSS : UTILISATION POUR LE POSITIONNEMENT DE HAUTE PRÉCISION
fréquences. En outre, la gestion optimisée des canaux disponibles
permet un temps initial de verrouillage particulièrement bref sur
chaque signal reçu. À noter également que de nombreux développements algorithmiques ont permis :
– un calcul des ambiguïtés entières (voir ci-après) extrêmement
rapide, un point très important pour la productivité des géomètres ;
– une possibilité de calcul de précision centimétrique en point isolé,
sans besoin d’une liaison avec des stations proches du RGP (réseau
GNSS permanent, voir ci-après) : le PPP (positionnement ponctuel
précis, ou Precise Point Positioning), nouvelle méthode qui ne nécessite un accès qu’à des données mondiales, concernant les corrections
à apporter à chaque signal de satellite reçu (voir ci-après).
1
Autres développements industriels : dans le domaine des puces
à destination du grand public, la réception des quatre GNSS est
très fréquente (par exemple plus de 95 % reçoivent au moins GPS
et Galileo), parfois aussi toutes les bandes de fréquences émises,
et parfois aussi la phase des ondes porteuses : l’accès à des localisations de précision décimétrique, peut-être même centimétrique, est donc ouvert au grand public.
1.2 Principes généraux des GNSS
pour leur emploi en haute précision
1.2.1 Constellations GNSS
■ Nous allons d’abord détailler le principe de fonctionnement du
GPS, puis nous verrons les autres systèmes formant les GNSS, et
leurs différences avec ce premier cas. Un ensemble de 30 satellites
« Navstar » (30, afin de garantir un effectif opérationnel de quatre en
permanence sur chacun des six plans orbitaux), lancés par l’armée
américaine à partir de 1978, orbite vers 20 200 km d’altitude (figure 1).
Ceux-ci émettent en permanence des signaux radioélectriques sur
des porteuses (les mêmes pour tous les satellites) à des fréquences
de 1,2236 GHz (appelée « L2 »), 1,57542 GHz (appelée « L1 ») et
1,17645 GHz (appelée « L5 ») pour lesquels chaque bit d’information
est émis à une date extrêmement bien connue, grâce à l’emploi,
dans chaque satellite, d’un ensemble d’horloges atomiques. Ces bits
décrivent les paramètres de position de tous les satellites GPS. Ils
servent à moduler la phase des ondes porteuses, aux côtés de
divers niveaux de codes pseudoaléatoires (certains sont d’accès
public : le code C/A, les codes I5 et Q5, alors que d’autres (Y et M)
sont cryptés et donc confidentiels), qui permettent d’identifier
chaque satellite. Ces signaux sont délivrés avec un débit de l’ordre
de 10 Mbit/s, ce qui conduit à une émission à spectre large et donc à
une bonne insensibilité aux émissions parasites.
les secondes). La mesure sur les codes est beaucoup moins précise que celle effectuée sur la phase (les bits du code C/A sont
émis chaque microseconde, deux bits sont donc distants de 300 m
dans l’espace, alors qu’un tour de phase correspond à 20 cm environ, soit une longueur d’onde de porteuse à 1,5 GHz), mais la
mesure de phase a, par contre, l’inconvénient d’être fondamentalement ambiguë et de souffrir d’une perte de continuité à chaque
défaut de réception du signal, même extrêmement bref.
Au niveau du sol, l’usager emploie un récepteur dont le travail
consiste à observer avec exactitude la date de réception de ces
mêmes bits, et à décoder ceux-ci. Pour ce faire, le récepteur effectue une corrélation entre les signaux reçus et les codes pseudoaléatoires, caractéristiques de chaque satellite, et qu’il connaît.
Lorsque la corrélation maximale est obtenue, l’écart entre le code
théorique et le code observé produit directement les messages
transmis par le satellite (n° du satellite, paramètres de l’orbite et
de l’horloge de bord, modèle grossier de l’état de l’ionosphère,
paramètres d’orbite de tous les autres satellites). Cette corrélation
maximale est ensuite maintenue par un asservissement qui permet, si on le souhaite, de mesurer en continu la phase des ondes
porteuses de L1, L2 et L5. Si cet asservissement se fait avec une
bande passante étroite, le temps d’initialisation du verrouillage
sera long mais le rapport signal/bruit sera élevé, alors que, si le
temps d’initialisation est très bref, ce sera souvent au prix d’une
moindre exactitude (pouvant atteindre un ordre de grandeur selon
les types de matériels). La mesure de base peut donc se faire pour
chaque fréquence à deux niveaux, soit uniquement par datation
des bits formant certains codes (typiquement le C/A, pour Coarse/
Acquisition, code public destiné à tous les modes de réception),
soit en y rajoutant la mesure du nombre de tours de phase de
l’onde porteuse à chaque instant de mesure (par exemple toutes
Le principe de calcul est le suivant : ce décalage de référence de
temps entre celui de l’ensemble des satellites (appelé « temps GPS »,
extrêmement stable) et celui du récepteur étant noté δt, les temps
d’arrivée des bits émis par chaque satellite lors de leur arrivée dans le
récepteur sont comparés aux instants d’émission de ceux-ci (instants
parfaitement connus en temps GPS). Si δt était nul, on déduirait de
ces différences de temps les distances entre les satellites reçus et le
récepteur : celui-ci se trouverait ainsi à l’intersection des sphères centrées sur ces satellites, sphères dont les rayons seraient ces distances
mesurées. En pratique, comme δt n’est pas nul, les distances obtenues sont différentes de la valeur théorique, on les appelle « pseudodistances », les différences étant toutes égales à c × δt (c = vitesse de
la lumière). On écrit donc les relations traduisant les pseudodistances
entre le récepteur et au moins quatre satellites (et en pratique beaucoup plus), on les linéarise et on obtient, par moindres carrés, les trois
coordonnées spatiales inconnues du récepteur ainsi que δt. Ainsi, dès
que le récepteur est localisé, sa référence de temps locale devient
automatiquement le temps GPS, à 1 µs près environ.
Figure 1 – Constellation nominale des 24 satellites GPS opérationnels
(en pratique, il y a des satellites supplémentaires pour suppléer
aux pannes possibles)
Le fonctionnement général du système est le suivant : les satellites sont tous recalés sur la même échelle de temps ; par contre,
le récepteur ne dispose pas au départ d’une heure précise. Il y a
donc quatre paramètres inconnus au niveau du récepteur ; ses
coordonnées x, y et z ainsi que son décalage temporel avec
l’échelle de temps des satellites. On observe donc simultanément
au moins quatre satellites, ce qui permet de calculer la position du
récepteur dès que l’on connaît celle des satellites.
Ce type de fonctionnement, compte tenu des différentes limites
physiques du système, peut donner en temps réel une exactitude
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
25
R 1 384v3 – 3
1
26
Référence Internet
TE6720
Applications de la géolocalisation
Une technologie qui change le monde
par
1
Philippe SAINT-MARTIN
Parution : février 2014 - Dernière validation : septembre 2015
Consultant – Institut télécom, 4icom (Paris)
1.
1.1
1.2
1.3
Nouvel âge de la géolocalisation....................................................
Géolocalisation au cœur de l’histoire moderne ...................................
Impact sur la société...............................................................................
Convergence technologique ..................................................................
2.
2.1
2.2
2.3
2.4
Géolocalisation dans le transport ..................................................
Suivi du trafic maritime..........................................................................
Optimisation de la chaîne logistique.....................................................
Écotaxe poids-lourd................................................................................
Automobiles ............................................................................................
—
—
—
—
—
2
2
3
4
4
3.
3.1
3.2
3.3
Applications terrestre et scientifique ...........................................
Génie civil et topographie ......................................................................
Géodésie et géologie..............................................................................
Environnement........................................................................................
—
—
—
—
8
8
9
9
4.
4.1
4.2
4.3
4.4
Révolution du smartphone et des objets connectés.................
Technologies employées .......................................................................
Géolocalisation facteur de rupture........................................................
Sport et bien-être ....................................................................................
Réalité augmentée ..................................................................................
—
—
—
—
—
10
10
11
11
11
5.
5.1
5.2
5.3
5.4
5.5
5.6
« Big Data » géolocalisé ...................................................................
Techniques utilisées ...............................................................................
« Crowd sourcing » des bornes WiFi ....................................................
Quelques applications « Big Data ».......................................................
Mise à jour des cartographies ...............................................................
Planification de l’espace.........................................................................
Big Data pour Big Marketing ..................................................................
—
—
—
—
—
—
—
12
12
14
14
15
15
15
6.
6.1
6.2
Émergence du géo-commerce .........................................................
Premières applications de centres commerciaux ................................
Publicité géo-localisée............................................................................
—
—
—
16
17
17
7.
7.1
7.2
Santé connectée..................................................................................
Détection périmétrique...........................................................................
Bracelet GPS et mobilité des personnes à risque ................................
—
—
—
18
18
18
8.
8.1
8.2
De Big Data à Big Brother .................................................................
« Big Brothers are watching us »...........................................................
Avis de la CNIL ........................................................................................
—
—
—
19
19
19
9.
Conclusions et perspectives ............................................................
—
19
Pour en savoir plus .......................................................................................
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
27
TE 6 720v2 - 2
—
2
—
2
—
2
Doc. TE 6 720v2
TE 6 720v2 – 1
Référence Internet
TE6720
APPLICATIONS DE LA GÉOLOCALISATION _______________________________________________________________________________________________
1. Nouvel âge
de la géolocalisation
• De nouvelles pistes s’ouvrent également dans le domaine de
l’intelligence artificielle, comme le positionnement par reconnaissance d’image.
■ Irruption des plateformes
1
1.1 Géolocalisation au cœur de l’histoire
moderne
Ces technologies seules sont insuffisantes. Des plateformes
performantes sont nécessaires pour les mettre en œuvre et les
exploiter, avec notamment :
– des systèmes d’exploitation multitâches et mobiles ;
– la miniaturisation des composants, notamment des
processeurs et des mémoires ;
– l’explosion de la puissance de calcul disponible ;
– le déploiement des réseaux mobiles haut-débit ;
– la création et la mise à jour de cartographies numériques
précises et exhaustives, et de contenus géolocalisés.
Les animaux et les plantes, bien avant l’espèce humaine, ont
développé une capacité souvent surprenante et incroyablement
précise à se positionner dans l’espace et le temps. L’humanité a dû
attendre quelques millions d’années pour disposer des technologies lui permettant de les égaler. De l’astrolabe antique jusqu’au
GPS d’aujourd’hui, en passant par la boussole, le sextant, le
gyroscope et le satellite, celles-ci ont accompagné et même
souvent initié son développement économique, scientifique et
social tout au long de notre ère.
Tout cela a rendu les technologies de positionnement exploitables à un coût marginal négligeable, dans des environnements
divers, et sur l’ensemble de la surface du globe.
Mais, il faut attendre que la physique quantique nous révèle les
secrets de l’horloge atomique pour que le GPS initie le mouvement
de démocratisation que nous connaissons aujourd’hui, et mette la
géolocalisation à la porter du plus grand nombre.
Des « savoir-faire » existants, comme la correction d’erreur des
GNSS (GPS différentiel), la numérisation et la diffusion de cartographie, le calcul d’itinéraire, etc.... ont été mis en œuvre dans des
conditions économiques et ergonomiques performantes, grâce à
cette remarquable convergence de technologies.
1.2 Impact sur la société
L’amélioration des performances des techniques de géolocalisation a été l’un des facteurs du déclenchement de la mondialisation et de l’émergence du capitalisme entrepreneurial moderne.
Les développements récents des technologies numériques créent
un contexte nouveau dans lequel la géolocalisation, historiquement cantonnée au voyage et au transport, est placée au cœur
d’une explosion d’applications et de services inédits.
2. Géolocalisation
dans le transport
L’aide au voyage et au transport des marchandises et des
personnes, que ce soit pour répondre à des impératifs économiques, scientifiques ou militaires, a été et reste l’un des premiers
moteurs d’innovation.
Cette révolution est comparable à celle qui a suivi la démocratisation de la mesure du temps. L’introduction de la montre
portable, qui donne à tous l’accès à l’heure à la minute près, a
modifié en profondeur la société et l’économie au 19e siècle. De
même, le smartphone, support essentiel de la diffusion des
technologies numériques, n’a que quelques années d’existence.
2.1 Suivi du trafic maritime
Les marins ont été les premiers utilisateurs des technologies de
géolocalisation. Ce n’est qu’à l’aube du 21e siècle que les GNSS
ont ouvert le champ à des applications beaucoup plus diverses, et
ce, bien que le GPS trouve son origine dans les besoins de la
marine militaire américaine.
Mais, on perçoit déjà que la géolocalisation s’insinue dans
tous les processus de la vie sociale, économique et même
privée des individus.
Disponible à faible coût, à tout instant et en tout lieu, elle
contribue à améliorer le confort, la sécurité, l’efficacité, la
productivité, et apporte de nouveaux services.
■ L’utilisation
de la géolocalisation
aujourd’hui à de multiples enjeux :
de
répondre
– prévention des risques liés aux phénomènes naturels :
Elle a parallèlement un aspect rassurant dans l’univers numérique en constante mutation qui est le nôtre. Elle ramène l’humain
au contact du réel. Elle établit un lien entre le monde physique, où
notre corps s’épanouit, et l’univers virtuel d’internet et du numérique, dans lequel notre esprit vagabonde de plus en plus souvent.
• courants,
• hauts fonds,
• bancs de sable mouvants,
• perturbations météo,
• tempêtes,
1.3 Convergence technologique
• ouragans,
La démocratisation de la géolocalisation dont nous bénéficions
aujourd’hui est le résultat de la convergence remarquable de progrès
réalisés dans divers domaines, pendant les vingt dernières années.
• brouillard,
• vagues meurtrières ;
– sécurité du trafic : prévention des collisions entre navires à
l’entrée des ports ;
– secours en mer : appel, repérage, organisation et coordination ;
– réduction des coûts : possibilité de suivre avec précision une
route optimale prenant en compte les courants et les vents
dominants ;
– gestion et suivi du fret maritime ;
– pêche en mer : localisation des zones de pêche et suivi des
activités ;
– plaisance et sport nautique : sécurité et suivi des bateaux en
course.
■ Diverses technologies
Les technologies de positionnement se sont modernisées.
• Certaines, déjà anciennes comme le gyromètre, l’accéléromètre
ou le compas magnétique, trouvent, grâce à la miniaturisation des
composants et la baisse de leurs coûts, de nouvelles possibilités
d’intégration, notamment dans les smartphones.
• D’autres comme les GNSS, le positionnement par WiFi,
Bluetooth, réseau mobile, QR code, RFID ou NFC, constituent de
véritables ruptures technologiques.
TE 6 720v2 – 2
permet
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
28
Référence Internet
TE6720
________________________________________________________________________________________________ APPLICATIONS DE LA GÉOLOCALISATION
1
Figure 1 – Récepteur AIS de plaisance (Standard Horizon ) et logiciel professionnel (EuroNav)
Figure 2 – Boîtier de géolocalisation pour conteneur ConLock (Crédit Global Tracking Technology)
– d’ouverture de porte anormale ;
Les systèmes utilisés à partir des années 1970 sont
multiples et complémentaires. Ils tendent aujourd’hui à
converger vers l’utilisation des GNSS et d’un moyen de
communication approprié à l’utilisation ciblée : satellite,
réseau cellulaire ou transmission hertzienne (VHF).
– d’immobilisation prolongée dans un lieu non autorisé ;
– de document de transport électronique.
Ils permettent d’améliorer la sécurité des marchandises, de
simplifier les procédures de dédouanement. Ils restent opérationnels quel que soit le mode de transport (camion, trai,n bateau) et
suivent en continu le trajet effectué (figure 2).
■ L’AIS (Automatic Identification System ), en particulier, constitue
une innovation majeure dans la gestion et la sécurité du trafic
maritime. Composé d’un récepteur GPS et d’un émetteur/récepteur
VHF, il permet de communiquer en temps réel position, cap et
vitesse aux navires environnants, ainsi qu’aux centres de gestion
du trafic en mer (CROSS) et portuaire.
2.2 Optimisation de la chaîne logistique
Introduit et géré par l’OMI (Organisation maritime internationale), ce système s’impose :
– aux navires de commerce internationaux de tonnage supérieur
à 300 ;
– aux navires de transport de passagers ;
– aux bateaux de plaisance de catégorie B.
La miniaturisation permet aujourd’hui aux unités plus petites
(pêche et plaisance) de s’équiper de récepteurs et d’améliorer leur
sécurité en mer à moindre coût (figure 1).
Le faible coût d’utilisation du GPS et des réseaux de
communication de données de type GPRS a permis aux entreprises de transport, même les plus modestes, de gérer leur flotte
de véhicules et de planifier leur chargement de façon optimale. La
chaîne logistique dans son ensemble s’est reconfigurée autour
d’entrepôts plus importants et centralisés. Cette optimisation du
système logistique permet, entre autres, de livrer l’Europe de
l’Ouest en 24 h à partir d’un seul centre de stockage.
L’e-commerce a été un des grands bénéficiaires de ces gains de
temps et de flexibilité. Le déploiement de l’ADSL, au début des
années 2000, a fourni l’ergonomie et la réactivité indispensables
au marketing et à la prise de commande par internet. Mais, c’est la
géolocalisation et les services associés qui ont permis de fiabiliser
et de raccourcir les temps de livraison... et de retour éventuel des
marchandises.
■ Les conteneurs de marchandises sont progressivement équipés
de boîtiers combinant un récepteur GPS et une radio GPRS (moins
de 1 % à l’échelle mondiale fin 2012, mais forte progression attendue). Ces boîtiers combinent les fonctions :
– de géolocalisation ;
– de détection d’une mise en mouvement ;
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
29
TE 6 720v2 – 3
Référence Internet
TE6720
APPLICATIONS DE LA GÉOLOCALISATION _______________________________________________________________________________________________
1
Figure 3 – Équipement embarqué et portique de contrôle du système Ecotaxe
2.3 Écotaxe poids-lourd
Vente annuelle de système de navigation
routière et pénétration - Europe de l’Ouest
L’environnement est devenu, en une décennie, l’une des
préoccupations majeures des politiques publiques. La loi dite « du
Grenelle de l’Environnement » a trouvé avec la géolocalisation un
moyen de mettre en œuvre un des ses principaux objectifs : transférer une partie du fret routier vers d’autres moyens de transport
plus favorables à l’environnement (rail, fluvial...).
Smartphone
50
50 %
Portable
Seconde monté
10 %
0
0%
20
20
0
20
12
10
20
10
20 %
20
08
20
06
30 %
04
30
0
La solution retenue pour mettre en œuvre l’Ecotaxe impose à
tous les véhicules, dont le poids est supérieur à 3,5 t, de s’équiper
d’un équipement embarqué contenant un récepteur GNSS et un
module GSM-GPRS. Le processus consiste à valider, au moyen du
récepteur GNSS, un point de passage pour chaque tronçon routier
emprunté par le véhicule, et à comptabiliser la longueur du
tronçon. Les données sont régulièrement transmises par réseau
mobile GPRS à un centre de traitement qui calcule la taxe en
fonction de la distance et des caractéristiques du véhicule (longueur, nombres d’essieux, type de transport....).
La lutte contre la fraude est assurée par des portiques automatiques équipés de caméras, de détecteurs et de bornes de
communication RFID (identification par radio-fréquence) installés
sur certains axes stratégiques, qui vérifient que les poids-lourds
sont bien équipés d’un boîtier actif et correctement configuré selon
les caractéristiques du véhicule (figure 3).
Pénétration
02
■ Principe technologique
40 %
Intégré (OEM)
20
mio unitées
40
La loi prévoit de taxer les poids-lourds en fonction des
kilomètres parcourus. Non seulement sur autoroute, comme c’est
déjà le cas en France et dans d’autres pays européens, comme
l’Allemagne ou la Suisse, mais également sur une partie du réseau
secondaire (routes nationales et grandes départementales).
20
■ Une loi au service de l’environnement
Source : psm2012
Le taux de pénétration de la navigation automobile est évalué
à près de 60 %.
Figure 4 – Vente annuelle de navigation routière et pénétration
en Europe de l’Ouest
Une décennie plus tard, début 2000, le gouvernement Clinton
donne enfin, au grand public, accès à la précision « militaire » du
système GPS (une dizaine de mètres en terrain ouvert).
Cette décision ouvre alors la voie à une nouvelle génération de
systèmes, portables, beaucoup moins chers que leurs aînés intégrés d’origine par les constructeurs. La navigation automobile,
avec des prix d’entrée de gamme à moins de 100 €, devient alors
un vrai marché de masse, qui poursuit aujourd’hui son développement avec les applications sur smartphones (figures 4 et 5).
2.4 Automobiles
2.4.1 Systèmes de navigation
La navigation automobile est sans nul doute la première application de la géolocalisation moderne au service du grand public.
Les premiers systèmes, lancés dès fin 1994 par BMW, Philips,
Daimler Bosch puis Renault, utilisaient, à défaut d’une couverture
GPS continue :
– des capteurs de roue ;
– un compas magnétique ;
– un algorithme de corrélation cartographique (map matching ).
TE 6 720v2 – 4
60 %
60
2.4.2 Aide à la conduite
Ce premier succès dans l’utilisation de la géolocalisation a
donné de nouvelles idées au constructeurs et équipementiers
automobiles. Une toute nouvelle gamme d’applications, axées sur
l’assistance et l’aide à la conduite (ADAS en anglais pour
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
30
Référence Internet
E7560
Systèmes de communications
par satellite
1
par
Daniel BATTU
Ingénieur des télécommunications honoraire et consultant
1.
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
Architecture des systèmes de communication par satellite..
Terminologie.......................................................................................
Secteurs terrien et spatial ..................................................................
Lancement des satellites ....................................................................
Orbites ................................................................................................
Position des satellites dans l’espace .................................................
Télémétrie, poursuite et télécommandes ..........................................
Aires de lancement ............................................................................
Alimentation électrique ......................................................................
Débris spatiaux ...................................................................................
2.
2.1
2.2
2.3
2.4
Système de communications spatiales ......................................
Fréquences et largeurs de bande ......................................................
Modulations .......................................................................................
Qualité de la liaison ...........................................................................
Liaisons intersatellites .......................................................................
—
—
—
—
—
10
10
12
13
16
3.
3.1
3.2
3.3
3.4
3.5
Organisation de la transmission ..................................................
Vue générale .......................................................................................
Accès multiples ..................................................................................
Hybridation des connexions ..............................................................
Gestion du trafic de données ............................................................
Nouveaux concepts dans les réseaux ...............................................
—
—
—
—
—
—
16
16
17
18
19
20
4.
4.1
4.2
4.3
4.4
4.5
4.6
4.7
4.8
Exploitation des services par satellite .......................................
Lanceurs de satellites .........................................................................
Exploitants de satellites GEO.............................................................
Constellations de satellites MEO et LEO ...........................................
Concurrences entre LEO et MEO .......................................................
Financements et investisseurs ...........................................................
Tendances du marché satellitaire ......................................................
Économie de l’hybridation .................................................................
Sécurité et risques .............................................................................
—
—
—
—
—
—
—
—
—
21
22
22
23
23
23
24
25
25
5.
Réglementation ...............................................................................
—
26
6.
Projections vers le futur ................................................................
—
26
E 7 560v2
—
—
—
—
—
—
—
—
—
–2
2
2
4
6
7
9
10
10
10
Pour en savoir plus.................................................................................. Doc. E 7 560v2
n satellite est essentiellement un système de communication autonome
capable de recevoir des signaux de la Terre et de retransmettre ces
signaux à l’aide d’un récepteur intégré et d’un émetteur de signaux radio,
ensemble appelé « transpondeur ». Les satellites ont pour vocation de constituer des liaisons longues, là où l’investissement en câbles s’avérerait difficile.
Le concept de communication par satellite a été proposé par Arthur C. Clarke
dans un article publié dans la revue « Wireless World » en 1945. En effet, un
satellite placé à une altitude de 35 786 km au-dessus de la surface de la Terre
se déplace à la même vitesse et demeure donc dans une position fixe par rapport à la Terre. Cette orbite, appelée « orbite géostationnaire », ou « Ceinture de
Parution : juillet 2018
U
Copyright © - Techniques de l’Ingénieur - Tous droits réservés
31
E 7 560v2 – 1
Référence Internet
E7560
SYSTÈMES DE COMMUNICATIONS PAR SATELLITE
1
––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––
Clarke », est idéale puisqu’elle permet à une antenne au sol de communiquer
avec un satellite 24 heures sur 24 sans avoir à modifier sa position [1].
Un satellite doit supporter une forte accélération à l’occasion de son lancement jusqu’à atteindre la vitesse orbitale de 28 100 km/h, dans un environnement spatial hostile où il peut être soumis à des radiations et à des températures extrêmes pour une durée de vie estimée à 20 ans. En outre, le satellite doit
être le plus léger possible, car le coût élevé de son lancement est basé sur le
poids. Pour relever ces défis, un satellite doit être composé à partir de matériaux légers et durables. Il doit fonctionner avec une très grande fiabilité de
plus de 99,9 % dans le vide spatial sans perspective d’entretien ou de
réparation.
Le premier satellite artificiel, Spoutnik 1, a été lancé par l’Union Soviétique, le
4 octobre 1957. Le premier satellite à relayer les signaux vocaux fut celui du
projet SCORE (Signal Communication by Orbite Relay Equipment) du gouvernement américain, le 19 décembre 1958. Le 6 avril 1965, le premier satellite
Intelsat, Early Bird (appelé aussi Intelsat 1), a été construit par Hughes Aircraft
Company. Early Bird a été le premier satellite commercial opérationnel à fournir
des services réguliers de communication et de diffusion entre l’Amérique du
Nord et l’Europe.
1.2 Secteurs terrien et spatial
1. Architecture des systèmes
de communication
par satellite
1.2.1 Segment spatial
Pour utiliser le vocabulaire usuel, un satellite est composé essentiellement d’une charge utile et d’une plateforme. La charge utile d’un
satellite de communications comporte des antennes d’émissionréception et d’un ensemble de canaux de transmission et d’amplification (ou transpondeurs), chacun de ceux-ci étant spécialisé pour un
seul sens et pour une bande définie de fréquences.
1.1 Terminologie
Quel que soit son mode de réalisation, la communication par
satellite présente deux composantes essentielles, un segment spatial et un segment terrestre. Le segment spatial est constitué par le
satellite lui-même, qui dispose de dispositifs d’émission-réception
radioélectriques associés à des antennes et des amplificateurs à
large bande et à gain élevé. Le segment terrestre comprend les
équipements de transmission, fixes ou mobiles, situés à la surface
de la terre et des équipements auxiliaires. Les récepteurs au sol
comprennent les équipements de réception directe par satellite
(DTH, Direct To the Home, ou Direct-broadcast satellite), les appareils de réception mobiles situés dans les avions, les navires, les
téléphones par satellite et les appareils portatifs.
La plateforme comporte plusieurs sous-systèmes indispensables
au fonctionnement de la charge utile, parmi lesquels se trouvent :
– l’alimentation électrique ;
– le contrôle thermique ;
– le contrôle d’altitude et d’orbite ;
– l’ensemble relatif à la propulsion ;
– les dispositifs relatifs aux fonctions de poursuite, de télémesure
et des télécommandes (TT&C, Telemetry, Tracking and Control).
L’organisation des transpondeurs de la charge utile répond aux
exigences de la technologie utilisée en matière de traitement du
signal, la puissance de chacun des canaux devant être optimisée
sans créer de perturbations dommageables aux autres signaux
transmis (figure 1). Les différentes liaisons montantes (uplink)
sont collectées par les antennes réception du satellite et réparties
grâce aux filtres d’entrée (IMUX). Après amplification dans chacun
des canaux spécialisés charge utile, les bandes de fréquences porteuses sont regroupées à travers les filtres de sortie (OMUX) dans
des canaux orientés vers les antennes d’émission afin de constituer
les liaisons descendantes (downlink).
Une liaison satellite typique se compose d’une transmission d’un
signal depuis une station terrienne vers un satellite (liaison montante). Le satellite reçoit et amplifie le signal et le retransmet
ensuite vers la Terre (liaison descendante), où il est reçu et amplifié
à nouveau par les stations terriennes et les terminaux. Un système
de communication par satellite est composé d’un ensemble de stations terrestres d’émission-réception qui communiquent avec un
ou plusieurs satellites placés en rotation autour de la Terre, d’un
dispositif de télémétrie et de recherche (Tracking) et d’un centre
de gestion du réseau (figure 1). Les stations terriennes sont reliées
aux divers réseaux terrestres nationaux et internationaux qui leur
sont les plus proches.
Un satellite de communication est équipé d’antennes et
d’amplificateurs (ou transpondeurs) qui reçoivent et retransmettent les signaux, d’un système d’alimentation (§ 1.8) et d’un système de propulsion. Ce dernier permet de placer le satellite sur
la bonne position orbitale et d’apporter des corrections éventuelles. Un satellite en orbite géostationnaire peut dévier chaque
année jusqu’à un degré du nord au sud ou d’est en ouest de son
emplacement en raison de l’attraction gravitationnelle de la Lune
et du Soleil. Des propulseurs permettent d’ajuster la position.
Le rayon terrestre R (OA, OB) étant de l’ordre de 6 370 km, l’angle
sous lequel est vue la Terre depuis la Ceinture de Clarke (à l’altitude
de 35 860 km) est de 17,3 et l’arc terrestre correspondant est de
18 080 km. Trois satellites géostationnaires espacés de 120 suffisent pour desservir la plupart des terres habitées, à l’exception
des régions polaires (figure 2).
E 7 560v2 – 2
Copyright © - Techniques de l’Ingénieur - Tous droits réservés
32
Référence Internet
E7560
––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––– SYSTÈMES DE COMMUNICATIONS PAR SATELLITE
Segment spatial
Satellite
(avec ses antennes et son système
de contrôle distant – TTC, Équipements de poursuite de
télémesure et de télécommande)
Liaison
montante
1
Liaison
descendante
Récepteur
Émetteur
Segment terrestre
Figure 1 – Composantes d’un système de télécommunications par satellite
des matériaux résistants. Le système thermique du satellite protège
les composants électroniques sensibles et les maintient à une température optimale.
S
1.2.2 Segment terrestre
Le segment terrestre est constitué de l’ensemble des stations terriennes qui sont raccordées aux réseaux publics ou privés par des
câbles ou des liaisons hertziennes. Ces stations dites terriennes
doivent être entendues comme stations terminales du réseau spatial, car elles peuvent concerner des stations terrestres (fixes ou
transportables) ou des stations mobiles (véhicules, aéronefs ou
navires). La plupart de ces stations terriennes sont le plus souvent
émettrices et réceptrices, mais certaines ne disposent que de la
fonction de réception (RCVO : receive only), par exemple dans le
cas de système de radiodiffusion par satellite ou de diffusion de
données.
A
B
1.2.3 Diversité des services
Les systèmes de communication par satellite ont beaucoup évolué au cours de ces cinquante dernières années. Initialement
conçus pour la diffusion de services de télévision par satellite et
les besoins en communications intercontinentales à caractère civil
ou militaire, les satellites ont trouvé de nouveaux segments de marché qui mettent à profit leurs caractéristiques essentielles : possibilité de diffusion en espace libre en large spectre de fréquences ou
en spectre plus étroit en haut ou en faible débit avec la possibilité
d’une mise en œuvre et d’une reconfiguration rapide des paramètres de transmission, en complémentarité avec les ressources des
réseaux terrestres existants.
Figure 2 – Couverture terrestre avec trois satellites géostationnaires
Le maintien de la position orbitale d’un satellite est appelé maintien de la station et les corrections apportées par les propulseurs
du satellite sont appelées contrôle d’attitude. La durée de vie d’un
satellite est déterminée par la quantité disponible de carburant
nécessaire aux propulseurs. Une fois le carburant épuisé, le satellite finit par dériver dans l’espace et devenu hors d’usage, il
rejoint les débris spatiaux.
1.2.3.1
Communications entre stations fixes
Différentes classes de service peuvent être distinguées au sein
du service fixe (SF). Le service de téléphonie et de transfert de programmes de télévision est essentiellement un service point à point,
organisé entre le pays ou le service de départ, et le centre d’arrivée.
Les groupes de canaux de communications sont multiplexés et
modulés par une porteuse avant d’être transmis sur le segment
spatial (§ 3.2). Puis ils sont démodulés à la station d’arrivée avant
Les satellites fonctionnent à des températures allant de - 150 à
+ 150 C et peuvent être soumis à des radiations dans l’espace.
Pour cette raison, les composants du satellite sont blindés avec
Copyright © - Techniques de l’Ingénieur - Tous droits réservés
33
E 7 560v2 – 3
Référence Internet
E7560
SYSTÈMES DE COMMUNICATIONS PAR SATELLITE
––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––
d’être acheminés par les raccordements terrestres jusqu’à leur
destination. Selon l’importance des canaux à transmettre, le trafic
global peut être acheminé au moyen de plusieurs porteuses
(MCPC, Multichannels Per Carrier) ou bien, s’il ne s’agit que d’une
seule voie, par une porteuse unique (SCPC, Single Channel Per
Carrier). Dans ce dernier cas, le système d’antennes est moins
conséquent. Le système VSAT appartient également à la famille
des systèmes satellitaires établis entre stations fixes (§ 3.2.2).
1
1.2.3.2
1 – Injection sur orbite
circulaire de transfert
3 – Après retournement,
transfert
2
4 – Mise sur orbite finale
Figure 3 – Étapes d’une procédure de lancement
L’égalité des deux forces considérées, avec w = 2 x 3,14/T, fournit
l’équation suivante :
Radiodiffusion
2
M.g. (R/ (R + H)) = M.ω 2 . (R + H) , d'où il vient : H = 35 879 km.
Les programmes de radios et de télévision utilisent les satellites
en raison de leur capacité à couvrir de vastes zones géographiques.
Il suffit d’un émetteur de programmes dont l’antenne est orientée
vers un satellite équipé pour la diffusion sur l’ensemble d’un territoire national. La même technologie peut aussi être utilisée pour la
transmission vers les studios de séquences de reportages relayées
au moyen de systèmes satellitaires du service mobile.
1.2.3.4
avec
H
l’altitude, exprimée en km, de l’orbite du satellite terrestre ;
R
le rayon terrestre (6 378 km) ;
M
la masse du satellite ;
g
l’accélération de la pesanteur sur le lieu de lancement ;
T
la période de révolution de la Terre (24 heures).
Diversification géographique des marchés
À l’origine du marché satellitaire, les États-Unis, l’Europe et le
Japon ont représenté les segments dominants. Depuis cinquante
ans, les réseaux terrestres se sont densifiés et la fibre optique est
devenue le support de choix pour les hauts débits internationaux. Les récentes avancées technologiques ouvrent la voie aux
constellations de satellites en concurrence avec les réseaux de
téléphonie mobile, notamment pour l’accès aux applications
Internet. Des plans audacieux de développement sont actuellement proposés afin de réduire la fracture numérique à travers le
monde, en particulier pour le bénéfice des populations isolées.
La satellisation dépend de la vitesse acquise par la charge utile.
Celle-ci doit être comprise entre 7,8 km/s et 11 km/s. La vitesse de
satellisation minimale (MVOO) pour la Terre et pour une orbite circulaire de 1 200 km d’altitude est de 7,9 km/s. À 11 km/s, le satellite
échappe à la gravité de la Terre et devient une sonde spatiale.
À 36 000 km d’altitude, un lanceur dispose d’une capacité de
charge de 6,9 tonnes. Cette capacité est proche de 10 tonnes à
800 km et elle atteint 20 tonnes entre 300 et 400 km. En général,
les lanceurs sont constitués de deux ou trois étages de propulseurs
à poudre ou à liquide. Les propulseurs, ainsi que le premier et le
second étage, sont des éléments de la fusée récupérables par des
parachutes dans la mer. Les autres éléments se désagrègent dans
l’atmosphère. À la fin de la seconde guerre mondiale, les lanceurs
à poudre et à ergols liquides furent utilisés pour la propulsion de
missiles et des fusées spatiales. Des solutions alternatives ont été
envisagées pour la propulsion de sondes spatiales ou pour les étages supérieurs des lanceurs de satellites, l’accélération atmosphérique pouvant être fournie par d’autres moteurs, moteur ionique
ou VASIMR (§ 1.3.4).
1.3 Lancement des satellites
1.3.1 Principes de lancement
La procédure de lancement consiste à mettre le nombre de satellites désiré dans le plan orbital et la position relative souhaités.
Afin de réduire le coût du lancement, plusieurs satellites peuvent
être lancés simultanément en utilisant une orbite provisoire de
transfert (ou orbite de parking). L’allumage d’un moteur associé à
chaque satellite modifie l’orbite de celui-ci en plusieurs étapes
symbolisées sur la figure 3. Le positionnement relatif des satellites
sur l’orbite finale s’effectue au moment opportun par action sur
son moteur associé.
La capacité de charge des lancements a été récemment élargie
entre 8 et 27 tonnes et elle pourrait atteindre 250 tonnes en 2030.
Cet élargissement des possibilités ouvre la voie à des satellites
moins coûteux, mieux financés et à la création de constellations
de satellites en couche basse (LEO), de poids compris entre 10 et
250 kg.
Pour placer un satellite sur orbite terrestre, une fusée (ou lanceur) est utilisée. Ce lanceur doit conférer à la charge utile une
vitesse suffisante à une altitude définie afin d’assurer la stabilité
de rotation du satellite autour de la Terre.
1.3.2 Lanceur thermique
Différentes méthodes de propulsion spatiale sont disponibles
afin d’assurer le déplacement d’un objet dans l’espace. Le principe
de propulsion est lié à la transformation d’énergie chimique en
énergie cinétique. Le moteur de la fusée crée sa propre force
motrice, dans l’atmosphère et dans le vide spatial, du fait du principe de l’égalité de l’action et de la réaction, par l’éjection de gaz à
grande vitesse à l’arrière du véhicule au travers d’une tuyère (propulsion par « moteur-fusée »). La plupart des vaisseaux spatiaux
actuels utilisent des moteurs à fusées chimiques à combustion
La mise sur orbite résulte de la mise en présence de deux forces
opposées, l’une qui est l’attraction terrestre, orientée vers le centre
de la Terre et la force centrifuge qui, grâce au lanceur, éloigne le
satellite du sol et le met en rotation. Le lancement d’un satellite
suppose que celui-ci puisse acquérir une accélération suffisante
pour atteindre 28 100 km/h en vitesse orbitale. Une fois cette dernière acquise, l’équilibre des forces en présence est assuré.
E 7 560v2 – 4
3
1
Communications avec les stations mobiles
Au cours des vingt dernières années, la miniaturisation des composants et des antennes a ouvert la voie à une forte réduction du
poids et de l’encombrement des équipements d’émission-réception
radioélectriques. Parallèlement, les offres de téléphonie vocale et
de transferts de données se sont multipliées à des niveaux de prix
de plus en plus bas avec les réseaux terrestres de téléphonie
mobile (2, 3 et 4G) et les réseaux satellitaires (Iridium, Globalstar,
Orbcomm, etc.).
1.2.3.3
4
2 – Parcours inertiel
sur orbite de transfert
Copyright © - Techniques de l’Ingénieur - Tous droits réservés
34
Référence Internet
E7560
––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––– SYSTÈMES DE COMMUNICATIONS PAR SATELLITE
1.3.5 Lancement spatial avec assistance
interne, à propergols solides ou liquides. L’ergol combustible brûle
l’ergol comburant, ce qui fournit l’énergie nécessaire à la propulsion de la masse de l’ensemble lanceur / satellite. La masse propulsive à haute température est éjectée sous la forme d’un gaz très
chaud à travers une tuyère qui assure la détente et l’accélération
du gaz d’échappement. Les vitesses d’éjection de tels moteurs
sont habituellement comprises entre 2 et 10 fois la vitesse du son
au niveau de la mer.
1.3.5.1
Lancement spatial sans fusée
Le lancement spatial sans fusée est une méthode de lancement
orbital ou suborbital, pour lequel la vitesse et l’altitude sont fournies sans avoir recours à des fusées éjectant des gaz pour produire
une poussée à l’arrière du véhicule. Dans la plupart des cas, la
méthode utilisée est la projection, la charge utile étant mise en
mouvement par une force transmise à l’aide d’un dispositif fixe
situé au sol (canon ou catapulte). Il s’agit d’un lancement assisté,
tel qu’utilisé par le lanceur Pegasus et le vaisseau SpaceShipOne
(lancement aéroporté partiel).
1.3.3 Propulsion électrique
La propulsion électrique n’est utilisable qu’en haute altitude et
elle présente l’inconvénient d’allonger le temps de mise en orbite.
Elle est mise en œuvre pour le maintien à poste des satellites et la
rehausse de leur orbite à leur valeur théorique en utilisant des forces électrostatiques ou électromagnétiques. Dans ce procédé, la
masse propulsive est constituée d’un flux d’ions sous forme de carburant ionisé éjectable. Les moteurs utilisent l’énergie électrique
pour ioniser les atomes de la masse propulsive, puis créent des
champs électriques pour accélérer les ions jusqu’à leur vitesse
d’éjection. Ce processus économise du poids dans la période de
lancement. L’efficacité énergétique et la poussée sont inversement
proportionnelles à la vitesse d’éjection. Les grandes vitesses d’éjection exigeant de très grandes puissances électriques, ce concept
devient inapplicable pour les fortes poussées.
1.3.5.2
Lancement d’un satellite à l’aide d’un avion
En 2016, la Nasa a placé en orbite huit microsatellites météorologiques (constellation CYGNSS, Cyclone Global Navigation Satellite
System), grâce à un avion de la Nasa, porteur d’un lanceur Pegasus XL. L’avion a déployé le lanceur de 22 tonnes à 13 km d’altitude
et celui-ci a placé les satellites sur leur orbite à 512 km d’altitude
(figure 4). Ces derniers ont pour mission de mesurer la vitesse
des vents afin de mieux anticiper l’évolution des ouragans.
1.3.5.3
Ballons
Pour des expériences à caractère scientifique, éducatif, ou commercial, des charges utiles peuvent être transportées par des ballons gonflés à l’hélium à des altitudes comprises entre 10 et
40 km. Ces déploiements, sollicités par des institutions gouvernementales, ne portent que sur de courtes durées (entre deux heures
et plusieurs semaines), afin de faire face à un sinistre par exemple.
Un ballon peut ainsi emmener à 22 km d’altitude une fusée dont la
mise à feu peut placer en orbite à 600 km d’altitude un satellite de
150 kg de charge utile.
1.3.4 VASIMR
La propulsion magnéto-plasmique à impulsion spécifique
variable ou VASIMR (« Variable Specific Impulse Magnetoplasma
Rocket ») est un propulseur spatial à plasma. Il utilise des champs
et des rayonnements électromagnétiques variables pour chauffer,
ioniser et accélérer un propergol vaporisé (hydrogène, argon ou
hélium). VASIMR est une solution alternative à deux systèmes
spécialisés existants que sont les propulseurs à haute poussée
et à faible impulsion spécifique (comme les moteurs-fusées à
propulsion chimique) d’un côté, et les propulseurs à faible poussée et à haute impulsion spécifique (moteurs ioniques) de l’autre.
Il est capable de fonctionner dans les deux modes par ajustement
des paramètres.
1.3.6 Principaux lanceurs actuels
La mise en orbite est un facteur déterminant dans les projets spatiaux pour lesquels l’efficacité et l’économie constituent des objectifs essentiels. Au total, il n’existe que sept puissances au monde
capables de fabriquer et d’assurer le lancement de leurs satellites
de façon autonome : les États-Unis, la Chine, l’Union européenne,
la Russie, l’Inde, le Japon et Israël (§ 4.1).
Fin 3ème étage
512 km
Avion porteur à altitude de
12,4 km. Lâcher de la charge
Étape
variable
Allumage du 3ème étage
à 458 km
Fin du second
étage 174 km
Départ 2ème
étage – 71 km
Largage du carénage
de charge à 116 km
Allumage à
12,3 km
Fin 1er étage
53 km
Montée
Figure 4 – Lancement d’un satellite à partir d’un avion
Copyright © - Techniques de l’Ingénieur - Tous droits réservés
35
E 7 560v2 – 5
1
Référence Internet
E7560
SYSTÈMES DE COMMUNICATIONS PAR SATELLITE
––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––
1.4 Orbites
Les caractéristiques essentielles des satellites de télécommunications sont relatives à leur altitude, à l’inclinaison de leur orbite par
rapport à l’axe des pôles terrestres et à l’excentricité de leur orbite.
L’orbite du satellite est circulaire si l’injection sur la trajectoire désirée
est effectuée horizontalement et à une vitesse en adéquation avec l’altitude. Si ces conditions ne sont pas respectées, l’orbite est elliptique.
1
1.4.1 Paramètres orbitaux
Deux corps ponctuels A et B, de masses respectives et s’attirent
avec des forces de même valeur, mais de sens opposé, proportionnelles aux produits des deux masses, et inversement proportionnelles au carré de la distance qui les sépare. Cette force a pour direction
la droite passant par les centres de gravité des deux corps. La force
exercée sur le corps r le corps est donnée par la relation :
F (en newtons) = G.M.m/r2
Figure 5 – Orbite polaire
G est la constante gravitationnelle
(G = 6,672.10
-11
3
-1
-2
m .kg .s ).
De la loi de Newton, se déduisent les propriétés suivantes (lois
de Kepler) :
– l’orbite d’un satellite de télécommunications est une conique
(ellipse ou cercle), dont le plan contient le centre de la Terre.
Lorsque l’orbite est circulaire, son centre est celui de la Terre.
Le satellite se déplace d’autant plus vite qu’il est proche de la
Terre, c’est-à-dire que la droite qui joint le centre de la Terre au
satellite balaie des aires égales dans des intervalles de temps
égaux ;
– le carré de la période de rotation du satellite autour de la
Terre varie comme le cube de la longueur du grand axe de
l’ellipse. Si l’orbite est circulaire, le grand axe est alors le rayon
du cercle. Le satellite est positionné dans l’espace au moyen des
paramètres suivants :
– inclinaison du plan de l’orbite sur le plan équatorial de la Terre,
– ascension droite du nœud ascendant (point de passage du
satellite dans le plan équatorial de la Terre de l’hémisphère
Sud vers l’hémisphère Nord),
– argument du périgée du satellite (point le plus proche du centre de la Terre),
– caractéristiques de l’ellipse décrite (demi-grand axe « a » et
excentricité e = c/a, c étant la distance du centre de l’ellipse
au centre de la Terre),
– position du satellite sur son ellipse (anomalie vraie exprimée
par l’angle dont le sommet est au centre de la Terre par rapport à la direction du périgée),
– en fonction de la valeur de l’angle “i”, déterminé par le plan de
l’orbite du satellite et le plan équatorial de la Terre, l’orbite du
satellite est « équatoriale » si i = 0 et elle est « polaire » si
i = 90 . Si i est compris entre 0 et 90 , l’orbite est dite « inclinée » (figures 5, 6 et 8).
Figure 6 – Orbite équatoriale
Les objets qui se déplacent, progressent en tournant autour de
leur axe principal de symétrie Oy, qui suit une « parallèle » à l’horizontale terrestre. Pour bénéficier d’une condition de rotation stable,
le rapport des moments d’inertie du satellite doit satisfaire les
conditions suivantes Iy > Ix et Iy > Iz. En général, le rapport Iy / Ix
s’établit autour de 1,1 et 1,3, et la vitesse de rotation est de l’ordre
de 100 tours par minute. Les couples solaires et magnétiques
créent une précession qui vient s’ajouter aux erreurs et l’ensemble
peut néanmoins être corrigé en utilisant le système de propulsion
secondaire du satellite de façon périodique.
1.4.3 Éclipses solaires
Pour chaque satellite, le système d’orientation de ses panneaux
solaires fait pivoter ceux-ci sur eux-mêmes une fois par jour, de
façon à ce qu’ils se présentent sous un angle optimal face au soleil
(tolérance de 1 ). Dans le cas des GEO, et en raison de l’inclinaison
écliptique, l’angle d’incidence de la lumière du soleil varie entre 0
et 23 27’ entre les jours du solstice et l’équinoxe, ce qui entraı̂ne
une perte de puissance de 8 %.
Aux équinoxes, lorsque le soleil se trouve dans l’axe de l’antenne, les antennes terriennes de réception sont aveuglées par le
soleil pendant 5 à 70 minutes environ selon la latitude. Les périodes
d’éclipses commencent 23 jours avant l’équinoxe et se terminent
23 jours après cette date. Parfois, des courtes éclipses de lune peuvent aussi se produire, obligeant le satellite à utiliser les ressources
de sa batterie. Pour les MEO et les LEO, le phénomène d’occultation
du soleil obéit aux mêmes principes, le nombre et la durée des
éclipses solaires étant fonction du mouvement des satellites.
1.4.2 Perturbations des trajectoires
Les perturbations de trajectoires des satellites sont liées aux phénomènes suivants :
– asymétrie de l’attraction de la Terre du fait des irrégularités de
celle-ci sur le plan morphologique et de sa rotation ;
– attraction conjoncturelle du Soleil et de la Lune. L’effet sur
l’orbite du satellite dépend des paramètres orbitaux. Il est faible
pour les satellites en couche basse et fort pour les GEO. Il se produit une dérive de l’inclinaison de l’orbite du satellite de l’ordre de
0,85 par an ;
– pression de radiation solaire liée à la réflectivité de la surface
du satellite ;
– traı̂née aérodynamique, laquelle, proportionnelle à l’inverse de
leur vitesse, s’exerce sur les satellites en couche basse et tend à
diminuer l’excentricité de leurs orbites.
E 7 560v2 – 6
1.4.4 Rayonnements nocifs
1.4.4.1
Ceinture de Van Allen
La ceinture de Van Allen, zone toroı̈dale de la magnétosphère de
la Terre entourant l’équateur magnétique et contenant une grande
densité de protons et de particules énergétiques comprend deux
Copyright © - Techniques de l’Ingénieur - Tous droits réservés
36
Référence Internet
R1814
Mesure du champ
de pesanteur terrestre
1
par
Michel DIAMENT
Physicien à l’Institut de physique du globe de Paris (IPGP)
Laboratoire de gravimétrie et géodynamique, département de géophysique spatiale
et planétaire (UMR CNRS/IPGP/Paris-7 7096)
1.
Champ de pesanteur terrestre .............................................................
2.
Types de mesures. Réseaux de bases.................................................
—
4
3.
Mesures absolues.....................................................................................
—
5
4.
4.1
4.2
Mesures relatives .....................................................................................
Gravimètres à ressort..................................................................................
4.1.1 Appareils commercialisés..................................................................
4.1.2 Conditions d’utilisation ......................................................................
Gravimètres supraconducteurs ..................................................................
—
—
—
—
—
7
7
7
8
9
5.
Mesures et mobiles .................................................................................
—
11
6.
Mesures particulières : puits, fond de mer.......................................
—
11
7.
Mesures depuis l’espace ........................................................................
—
11
8.
Comment connaître la valeur de g en France ..................................
—
14
Pour en savoir plus ...........................................................................................
R 1 814 - 2
Doc. R 1 814
Parution : juin 2005
L
a mesure de la pesanteur terrestre est utile pour de nombreuses
applications : en géophysique, en géodésie en passant par la navigation, la
physique fondamentale et la métrologie. En géophysique [R 2 345] [C 224],
l’analyse et la modélisation des variations spatiales ou temporelles du champ
de pesanteur permettent d’avoir accès à la structure en densité du globe
terrestre et à ses éventuelles variations. Les applications vont de la physique du
globe au génie civil en passant par la volcanologie, l’étude des ressources naturelles, l’océanographie et l’hydrologie. En géodésie [C 5 010], la connaissance
des anomalies de pesanteur permet de déterminer l’altitude du géoïde (surface
équipotentielle du champ de pesanteur terrestre qui se confond avec le niveau
moyen des mers) par rapport à un ellipsoïde de référence. Il s’agit donc d’une
mesure fondamentale pour la connaissance de la forme de la Terre. La
connaissance de l’altitude du géoïde par rapport à un ellipsoïde de référence
est également indispensable pour pouvoir comparer des résultats de mesures
de nivellement utilisant des techniques spatiales (GPS : Global Positioning
System) avec ceux de mesures classiques [1].
Depuis quelques années, nos connaissances sur le champ de pesanteur
terrestre ont énormément progressé du fait, d’une part, des évolutions des
instruments de mesure et, d’autre part, de l’apport des techniques spatiales.
Les satellites ont permis de réaliser à la fois des mesures complémentaires
comme l’orbitographie, l’altimétrie satellitaire [E 4 140], les méthodes de
positionnement (GPS) [TE 6 715], la connaissance de la topographie que des
mesures directes de la gravité terrestre à partir de missions dédiées.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur
37
R 1 814 − 1
Référence Internet
R1814
MESURE DU CHAMP DE PESANTEUR TERRESTRE _____________________________________________________________________________________________
On mesure désormais le module g du vecteur pesanteur g mais également
ses gradients spatiaux (les éléments du tenseur dit de gradiométrie Txy ) à terre,
en mer, en fond de mer, en avion, depuis l’espace.
On connaît également le champ de gravité d’autres corps du système solaire
(planètes comme Mars et Vénus, satellites comme la Lune et même de certains
« petits corps »).
1
Une partie de ce texte est adaptée du chapitre « Forme de la Terre et mesure de la pesanteur »
de l’ouvrage Géophysique [19].
Cette étude a bénéficié des informations ou documents que Nicole Debéglia (Bureau de
recherches géologiques et minières – BRGM), Sébastien Déroussi (Bureau FROG – French
Resources Organization on GOCE), Arnaud Landragin (CNRS-BNM-SYRTE), Guillaume Martelet
(BRGM) et Michel Sarrailh (Bureau gravimétrique international – BGI) m’ont communiqués ainsi
que des commentaires de Marc Priel sur une version préliminaire. Je les en remercie. Je tiens
à exprimer ma gratitude à Anne-Marie Gaulier pour sa patience.
1. Champ de pesanteur
terrestre
Tableau 1 – Unités de la pesanteur
et du gradient de la pesanteur
Unité
Un point massique à la surface de la Terre, en rotation avec elle,
subit une accélération appelée accélération de la pesanteur. Cette
accélération est la résultante des attractions newtoniennes des
masses de la Terre (la gravité), de l’accélération centrifuge due à la
rotation de la Terre, de l’attraction newtonienne des autres corps du
système solaire (en pratique, il s’agit essentiellement de la Lune,
pas très massique mais proche et du Soleil, éloigné mais très massique). Le module de l’accélération de la pesanteur en un point et
en un instant donné, qu’on appelle la pesanteur (gravity dans les
publications anglo-saxonnes), dépend donc de la répartition des
masses dans la Terre et au voisinage immédiat du point de mesure,
de la position géographique de celui-ci et de sa position relative
par rapport à la Lune et au Soleil.
Dans le système international (SI), l’unité de la pesanteur est le
mètre par seconde carrée (m/s2). Les variations spatiales ou temporelles qui intéressent les géophysiciens et géodésiens sont
comprises entre 10–9 et 10–3 m/s2 et on utilise fréquemment le
micromètre par seconde carrée (1 μm/s2 = 10–6 m/s2), également
appelé gravity unit dans certaines publications anglo-saxonnes, ou
le nanomètre par seconde carrée (1 nm/s2 = 10–9 m/s2). Les géophysiciens et géodésiens continuent à utiliser une unité de l’ancien
système CGS, le gal, noté Gal, ainsi nommé en hommage à
Galilée, qui vaut 10–2 m/s2, ainsi que ses subdivisions : le milligal
(mGal) qui vaut 10–5 m/s2 et le microgral (μGal) égal à 10–8 m/s2.
Une des raisons, outre l’habitude, pour cet usage d’une unité
« illégale » est que les densités et les masses volumiques (appelées
density dans les publications anglo-saxonnes et données avec une
unité) ont la même valeur numérique dans le système CGS.
Il existe également une unité utilisée pour les gradients de la
pesanteur. Il s’agit de l’eötvös, noté E, d’après le nom d’un
géophysicien hongrois : 1 E = 0,1 μGal / m = 10–9 s–2.
Le tableau 1 rappelle les différentes unités utilisées.
Gal
Milligal
Microgal
Nanomètre par
seconde carrée
Gravity unit
Eötvös
Valeur en SI
Remarques
Gal
10–2 m/s2
mGal
10–5 m/s2
1 mGal r 10–6 <g >
μGal
10–8
1 μGal r 10–9 <g >
m/s2
nm · s–2
10–9 m/s2
g.u.
10–6 m/s2
mGal/m
10–5 s–2
E
10–9 s–2 =
0,1 μGal/m
Le gradient à l’air
libre « normal » à la
surface de la Terre
est : 0,3086 mGal/m
(croûte supérieure) créent des signaux allant de l’ordre de la
centaine de milligals (10–4 <g >) pour une chaîne de montagne à
localement quelques dizaines de microgals (10–8 <g >) pour une
cavité en subsurface. Les hétérogénéités de masse plus profondes
créent des signaux plus étendus et de plus faible amplitude.
En latitude, la pesanteur varie donc (figure 1). Le gradient
horizontal sud-nord est de l’ordre de 0,81 sin 2λ mGal/km avec λ la
latitude.
L’Association internationale de géodésie (AIG), l’une des sept
associations constituant l’Union géodésique et géophysique internationale (UGGI), a défini des valeurs théoriques de la pesanteur
sur la Terre en fonction de la latitude. Ces formules, dites IGF pour
international gravity formula, sont valables sur un ellipsoïde
donné. Rappelons que l’ellipsoïde est une forme théorique de la
Terre, proche mais qui diffère du géoïde qui correspond à la forme
vraie de la Terre. Le géoïde est une surface équipotentielle du
champ de pesanteur terrestre qui se confond avec le niveau moyen
des océans. L’ellipsoïde est une surface équipotentielle du champ
de pesanteur théorique.
La formule de 1980 donne la valeur de la pesanteur sur l’ellipsoïde correspondant au système géodésique WGS84 (utilisé pour
le positionnement GPS) [IN 29].
(0)
La pesanteur à la surface de la Terre <g > est de l’ordre de
9,80 m/s2. Elle est plus faible à l’équateur où, du fait de la rotation,
le rayon terrestre est le plus grand et l’accélération centrifuge la
plus forte, et vaut 9,78 m/s2. Aux pôles, la valeur est de 9,83 m/s2.
Les variations en latitude, qui sont du même ordre de grandeur
que les variations en altitude (du sommet de l’Everest au fond de
la fosse des Mariannes) sont donc de l’ordre 5 · 10–3 <g >. Les hétérogénéités de masse situées dans la partie la plus externe du globe
R 1 814 − 2
Symbole
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur
38
Référence Internet
R1814
____________________________________________________________________________________________ MESURE DU CHAMP DE PESANTEUR TERRESTRE
9,82
0,8
9,81
0,6
ie
Gr
M
0,2
9,78
0
0
10
20
30
40
50
60
70
80
90
Latitude λ (°)
(2)
La figure 2 montre la valeur de g en milligals au niveau du sol
sur la France métropolitaine. Elle a été calculée par le Bureau
gravimétrique international (BGI) situé à Toulouse. On constate
bien une augmentation de g avec la latitude et une diminution avec
l’altitude.
Figure 1 – Variation de la pesanteur et de son gradient horizontal
en fonction de la latitude
En un point donné, la pesanteur varie au cours du temps. Cela
est dû à l’effet des corps externes (la Lune et le Soleil) ainsi qu’aux
mouvements éventuels de masses au voisinage du point de
mesures, notamment ceux des enveloppes fluides que sont
l’atmosphère et les nappes phréatiques.
Si λ est la latitude, on a :
g = 9,7803267715 (1 + 0,0052790414 sin2 λ
+ 0,0000232718 sin4 λ + 0,0000001262 sin6 λ
+ 0,0000000007 sin8 λ ) (1)
Latitude λ (°)
N
La pesanteur varie également avec l’altitude (plus on s’éloigne
du centre de la Terre, plus la pesanteur diminue) : son gradient
vertical moyen dit à l’air libre vaut 0,308 6 mGal/m. Lorsque l’on
s’élève avec le sol, le gradient est plus faible. Il dépend naturellement de la densité des constituants du sol, et est de l’ordre de
0,2 mGal/m. Typiquement, g diminue de 0,001 m/s2 lorsque l’on
s’élève de 500 m sur la topographie. Les gradients varient donc en
fonction de la nature du sous-sol, de la topographie et des masses
au voisinage immédiat du point de mesure. En fonction des
besoins, il peut être nécessaire de mesurer éventuellement les
gradients, et en particulier le gradient vertical.
0,4
n
sa
Pe
9,79
2
1 + 0,00193185138639sin λ
g = 9,7803267714 -------------------------------------------------------------------------------------1 – 0,00669437999013 sin 2 λ
te
ur
9,8
Gradient (mGal / km)
0,9
nt
9,83
ad
Pesanteur g (m/s2)
Une forme approchée est :
52
51
50
49
48
47
46
45
44
43
42
–5
–4
–3
–2
–1
0
1
2
3
4
5
6
7
8
9
Longitude (°)
Figure 2 – Valeur de la pesanteur au sol (mGal)
calculée par le BGI à partir de 49 625 mesures
effectuées en France
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur
39
R 1 814 − 3
1
Référence Internet
R1814
1
Marée gravimétrique (mGal)
MESURE DU CHAMP DE PESANTEUR TERRESTRE _____________________________________________________________________________________________
Aperçu historique des mesures du module de g,
mesures des gradients
0,1
Historiquement, les premières mesures gravimétriques ont
été réalisées avec des pendules, il y a plus de 300 ans. Les premières mesures permettant de cartographier la structure fine du
champ de pesanteur ont été réalisées par le baron R. von Eötvös,
géophysicien hongrois, au début du vingtième siècle. Eötvös mit
au point une balance de torsion permettant de mesurer les
gradients horizontaux. Ce type d’instrument a été utilisé de façon
intensive au début de l’exploration pétrolière jusque vers 1939
où il a été supplanté par des gravimètres relatifs donnant accès
à la mesure du module de g. Néanmoins, récemment, il y a eu
un regain d’utilisation d’instruments mesurant les différents
gradients du champ (FTG : full tensor gradiometry ) et de
nombreux colloques y sont consacrés dans les milieux
industriels.
En mer, les premières mesures ont été réalisées dès 1921 à
bord de sous-marins par un géophysicien hollandais,
F.A. Vening-Meinesz, qui avait développé un instrument utilisant
des pendules.
0
– 0,1
90
100
110
120
Temps (jour)
Figure 3 – Exemple de marée d’après un enregistrement de 30 jours
réalisé à Bondy
La Lune et le Soleil exercent des attractions gravitationnelles
périodiques. Leur influence se traduit également par une déformation de la Terre solide, la longueur du rayon terrestre pouvant
ainsi fluctuer jusqu’à 56 cm. Les variations des attractions gravitationnelles de la Lune et du Soleil ainsi que les déplacements
verticaux des points de mesure sous leurs actions sont la source
de ce que l’on appelle les marées gravimétriques, ou effet
luni-solaire (figure 3). Ces effets peuvent être prédits théoriquement [2] avec une précision d’une dizaine de microgals. Notons
toutefois que localement, par exemple dans des zones proches des
côtes océaniques, les prédictions peuvent être moins précises du
fait de la non-prise en compte des effets dus à l’océan (déplacement des masses océaniques et mouvement de la Terre solide sous
l’effet des charges et décharges dues aux marées océaniques). On
peut alors utiliser des algorithmes plus précis ou procéder à des
enregistrements locaux. Les effets luni-solaires atteignent jusqu’à
300 μGal (3 · 10–7 <g >).
Les changements de pression atmosphérique créent des
variations de la pesanteur du fait des modifications de poids de la
colonne d’air au-dessus des capteurs. Elles sont comprises suivant
les auteurs entre 0,2 et 0,4 μGal/hPa. Merriam [3] suggère une
valeur standard de 0,356 μGal/hPa.
Les effets hydrologiques sont plus difficiles à quantifier. Des
variations de la pesanteur sont créées par des variations de niveau
de nappe phréatique, par des modifications de l’humidité des sols,
par la neige, etc., c’est-à-dire le cycle de l’eau en général. Par
exemple, une élévation d’un mètre de la nappe phréatique correspond à une augmentation de 42 μGal fois la porosité du milieu.
variation de celle-ci. Par exemple, si on considère deux points de
mesure A et B, et que l’on connaît la valeur absolue de la pesanteur
g A en A, la mesure de la variation de la pesanteur entre A et B,
g AB , permet de connaître la valeur de la pesanteur en B.
On a vu (§ 1) que la variation de la pesanteur sur la Terre entre
l’équateur et les pôles est de l’ordre de 5 Gal en tenant compte uniquement de la rotation et des variations du rayon terrestre entre
l’équateur et le pôle. C’est un peu plus si l’on va du sommet de
l’Everest au fond de la fosse des Mariannes (~ 8 Gal). Par
conséquent, pour obtenir une précision relative de l’ordre de
quelques microgals en tout point du globe, il « suffit » de faire des
mesures relatives à 10–6 ou 10–7 près. Si les variations de la pesanteur auxquelles on s’intéresse sont plus petites, par exemple en
dessous de quelques dizaines de milligals, on peut plus facilement
obtenir des résultats très précis. Il s’agit là du domaine de la microgravimétrie qui est une méthode appliquée pour la prospection de
la subsurface (notamment pour des recherches de cavités) ou mise
en œuvre dans des domaines bien particuliers comme la
volcanologie.
Ainsi, on peut connaître la valeur de la pesanteur en tout point
de mesure à la condition de connaître la valeur absolue en un point.
Ce point particulier est ce que l’on appelle une base. On distingue
plusieurs « ordres » de bases. Celles où des mesures absolues ont
été réalisées sont évidemment les plus précises, puis il existe
d’autres bases qui ont été « rattachées » grâce à des mesures relatives aux premières, et ainsi de suite. Bien évidemment, plus l’ordre
de la base est élevé, moins précise est la valeur de g.
Pour pouvoir comparer des mesures réalisées en différents
endroits du globe, il est donc fondamental qu’un ensemble
commun de bases soit utilisé par tous. C’est ainsi qu’un réseau
standard international de la pesanteur a été adopté en 1971 par
l’Association internationale de géodésie (AIG). Ce réseau est appelé
IGSN71 (International Gravity Standardization Net).
En France, 31 bases font partie de ce système. Ce n’est pas suffisant, et un réseau de bases additionnelles existe. Concrètement,
une base est un point bien repéré géographiquement, facilement
réoccupable et choisi dans un environnement a priori stable.
Cependant, les réseaux de bases doivent être maintenus régulièrement, car beaucoup de bases disparaissent au cours du temps
du fait de l’activité humaine (nouvelles constructions...). De plus,
les appareils de mesure absolus et relatifs étant de plus en plus
précis, les réseaux doivent être régulièrement améliorés.
Le réseau français dit RGF83, pour Réseau gravimétrique français 1993, a été établi par le Bureau de recherches géologiques et
Exemple : pour une porosité de 25 %, une montée d’un mètre
conduit donc à une augmentation de 10 μGal.
On voit donc qu’en fonction de la précision recherchée, il convient
ou non de réaliser des mesures de gradient et des mesures annexes,
et de prendre en compte ou non les effets de marée terrestre, les
effets environnementaux, de connaître le cycle de l’eau.
Exemple : pour des mesures très précises, on mesure la hauteur
du capteur du gravimètre par rapport au point où l’on souhaite déterminer la valeur de g, la pression atmosphérique, etc.
2. Types de mesures.
Réseaux de bases
On distingue les instruments qui donnent accès à une mesure
absolue de la pesanteur et ceux, relatifs, qui ne vont pas permettre
de mesurer la valeur de l’accélération de la pesanteur, mais une
R 1 814 − 4
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur
40
Référence Internet
R2345
Mesures géophysiques en mer
par
1
Jean-Pierre LENOBLE
Ingénieur géologue
Ancien ingénieur de l’Institut français de recherche pour l’exploitation de la mer (Ifremer)
1.
1.1
1.2
Bathymétrie ...............................................................................................
Échosondeurs multifaisceaux.....................................................................
Cartographie ................................................................................................
2.
2.1
2.2
2.3
2.4
Imagerie acoustique................................................................................
Principe.........................................................................................................
Équipements ................................................................................................
Imagerie........................................................................................................
Utilisation .....................................................................................................
—
—
—
—
—
8
8
9
12
15
3.
3.1
3.2
3.3
3.4
Sondeurs à sédiments ............................................................................
Principe.........................................................................................................
Équipements ................................................................................................
Traitement du signal....................................................................................
Utilisation .....................................................................................................
—
—
—
—
—
16
16
17
18
18
4.
4.1
4.2
4.3
4.4
4.5
4.6
4.7
Gravimétrie ................................................................................................
Principe.........................................................................................................
Champs de pesanteur .................................................................................
Gravimètres..................................................................................................
Corrections des mesures ............................................................................
Interprétation ...............................................................................................
Altimétrie satellitaire ...................................................................................
Apports de la gravimétrie ...........................................................................
—
—
—
—
—
—
—
—
18
18
18
19
22
23
23
25
5.
5.1
5.2
5.3
Magnétométrie .........................................................................................
Principe.........................................................................................................
Magnétomètres............................................................................................
Corrections ...................................................................................................
—
—
—
—
25
25
27
29
Pour en savoir plus...........................................................................................
R 2 345 - 2
—
2
—
6
Doc. R 2 345
Parution : mars 2001
L
a mer, malgré la transparence tant vantée de ses eaux, est un milieu opaque. Au-delà d’une dizaine de mètres, l’œil n’y voit que du bleu et quelques
dizaines de mètres plus bas, c’est le noir complet. Pour explorer les fonds, analyser leur relief et leur nature, on doit recourir à des moyens indirects. Ces
moyens ont fait longtemps défaut, laissant le champ libre à l’imagination.
Depuis le milieu du siècle, ils se sont multipliés par le recours aux mesures
géophysiques : mesures de champs comme la gravimétrie, le magnétisme et
l’électromagnétisme ou mesure de la propagation d’ondes acoustiques ou
mécaniques (sismique).
Les buts poursuivis par ces méthodes sont de connaître :
— la topographie générale du fond de la mer ;
— les particularités de la surface du fond de la mer ;
— la structure des formations géologiques situées sous le fond ;
— la nature de ces formations ;
— l’océan (contenant et contenu).
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle
41
R 2 345 − 1
Référence Internet
R2345
MESURES GÉOPHYSIQUES EN MER ________________________________________________________________________________________________________
Le premier objectif nécessite de recourir à la bathymétrie, avec l’utilisation
d’échosondeurs à ultrasons et se traduit par la réalisation de cartes dites
bathymétriques où le relief est indiqué par des courbes de niveau (isobathes)
à l’image des cartes topographiques sur la terre ferme où les courbes de niveau
sont des isohypses.
1
Le second objectif est actuellement obtenu par l’utilisation combinée d’images
provenant de sonars à ultrasons et d’images obtenues par photographie ou
télévision. Il se traduit par des cartes constituées de mosaïques d'images qui
peuvent être superposées aux cartes bathymétriques.
Pour atteindre le troisième objectif, on utilise l’analyse des échos provenant
de la réflexion d’ondes acoustiques ou mécaniques sur les couches successives
de sédiments ou de roches constituant le sous-sol de la mer. Aux ondes acoustiques, de fréquence allant de quelques kilohertz à quelques centaines de kilohertz, correspondent les sondeurs ou pénétrateurs à sédiments. Aux ondes
mécaniques de fréquences plus basses (quelques hertz à quelques dizaines de
hertz) correspondent les méthodes sismiques.
Des informations sur la structure des couches profondes peuvent aussi être
obtenues par les méthodes gravimétriques, magnétiques et électromagnétiques.
L’obtention d’informations sur la nature des formations du sous-sol marin
exige le recours à des prélèvements par carottage ou par forage, qui sortent du
propos de cet article. Toutefois, les méthodes sismiques, gravimétriques,
magnétiques et électromagnétiques donnent des indications sur les caractéristiques physiques de ces formations, qui peuvent servir à leur identification.
La reconstitution de la structure et de la nature du sous-sol marin provient,
comme à terre, de l’interprétation des données obtenues par une combinaison
de méthodes indirectes (géophysique) et directes (prélèvement).
Nous parcourrons ci-après les diverses méthodes géophysiques actuellement
en usage : bathymétrie, imagerie acoustique, sondeurs à sédiments, gravimétrie, magnétométrie. Les méthodes sismiques ne font pas l’objet de cet article.
1. Bathymétrie
le produit de la puissance d’émission par la durée τ. Pour éviter les
phénomènes de cavitation, on doit limiter cette puissance. Par suite,
on agit sur la durée d’impulsion.
Cependant, une durée longue diminue le pouvoir séparateur, deux
C
réflecteurs séparés par une distance τ ---- ne pouvant être discernés.
2
On l’ajuste, suivant la profondeur, entre 2 et 10 ms pour conserver
le maximum de résolution ;
— la période de répétition T doit être choisie pour éviter qu’une
impulsion revienne aux sondeurs avant que la suivante ne soit émise.
Pour les sondeurs à faisceaux larges par grande profondeur, la
période de répétition était d’une seconde, car on intercalait les émissions et les réceptions, connaissant pour chaque réception le retard
en secondes entières que l’on devait ajouter à l’enregistrement. Elle
est en pratique ajustée automatiquement par le sondeur suivant la
profondeur de la zone de travail et varie d’une à plusieurs dizaines
de secondes ;
— l’absorption de l’énergie sonore dans l’eau est fonction du carré
de la fréquence f . Le coefficient d’absorption est d’environ un décibel
par kilomètre pour des fréquences voisines de 10 kHz. Elle passe à
30 dB/km pour 100 kHz. C’est pourquoi les échosondeurs utilisent
des fréquences voisines de 12 kHz.
1.1 Échosondeurs multifaisceaux
1.1.1 Principe des sondeurs à ultrasons
Un signal acoustique est envoyé au temps t0 par un émetteur
situé en surface en direction du fond. Lorsqu’il atteint celui-ci, une
partie de l’onde est réfléchie vers la surface et le signal-retour sera
enregistré par un récepteur au temps t1 . La profondeur z est obtenue par la formule :
1
z = ----- C ( t 1 – t 0 )
2
z (m) profondeur,
C (m/s) vitesse de l’onde en déplacement dans l’eau,
t (s) temps.
Le signal est composé d’une brève impulsion de durée τ, émise
à la fréquence f . Ce signal sera répété à intervalles réguliers toutes
les T secondes. De la valeur choisie pour ces trois paramètres
dépend l’efficacité du sondage :
— la durée d’impulsion τ va déterminer la capacité de pénétration
du sondeur, mais aussi son pouvoir séparateur. La profondeur
atteinte par l’onde sonore dépend de l’énergie émise. Celle-ci est
avec
R 2 345 − 2
La cavitation est la formation de petites bulles de vapeur d’eau
dont l’éclatement produit des ondes de chocs provoquant des
perturbations sonores et des dégâts sur les céramiques des
transducteurs.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle
42
Référence Internet
R2345
_______________________________________________________________________________________________________
MESURES GÉOPHYSIQUES EN MER
Historique de la bathymétrie
La première question posée à l’explorateur est évidemment celle
de la profondeur. Les abîmes insondables ont disparu, mais ils existaient encore au milieu du XIXe siècle. Les premiers explorateurs
eurent quelques problèmes pour mesurer la profondeur dès que
celle-ci dépassait les deux milles mètres. La première difficulté était
d’avoir des lignes de sonde, faites de chanvre torsadé, capables
d’atteindre plusieurs kilomètres de long. On réalisa des brins relativement courts en les reliant par des tourillons afin d’éviter qu’ils se
détordent. Par ailleurs en haute mer, les navires dérivaient au vent,
la ligne de sonde prenait une pente oblique et son lest n’atteignait
jamais le fond. C’est ainsi qu’en 1854, furent encore reportées des
profondeurs fantastiques de plus de 15 000 m, sur la carte de
l’Atlantique nord établie par Matthew Fontaine Maury [1].
En 1840 pourtant, Sir James C. Ross réussit à mesurer une profondeur de 2 425 fathoms (4 437 m) dans l’Atlantique sud à bord du
HMS Erebus. Il avait utilisé une chaloupe supportant un touret de
près de 6 600 m de ligne de chanvre. Celle-ci était manœuvrée par
les rameurs de façon à ce que le fil de sonde reste vertical. Des marques permettaient de mesurer la vitesse de descente : un brusque
ralentissement de celle-ci indiquait que le fond avait été atteint [1].
Une vérification a été opérée en 1968 par le navire de recherche
américain Discoverer utilisant un sondeur acoustique conventionnel. La différence observée, compte non tenu de l’imprécision
du positionnement commun aux deux époques, est inférieure à
1 %.
Pourtant la carte de Maury réalisée à partir de tels moyens fait
déjà apparaître la présence d’une ride médio-atlantique. Mais il fallut attendre 1961 pour que les premières cartes physiographiques
des océans, établies à partir d’une compilation de profils bathymétriques par Marie Tharp et Bruce Heezen du Lamont Geological
Observatory, montrent l’extension des dorsales dans les trois
océans [2].
La première utilisation, imaginée en 1917 par Paul Langevin, des
propriétés piézo-électriques du quartz pour détecter les sousmarins par ultrasons, n’eut pas le temps d’être réellement mis en
œuvre avant la fin de la Première Guerre mondiale [E 1 910] (référence [3]). Vers 1920, P. Marti, un ingénieur hydrographe, utilisa la
réflexion du son pour effectuer un levé de la pente continentale du
golfe du Lion [2]. Mais cette expérience ne fut pas poursuivie, bien
qu’en 1935 le Norvégien Sund utilisât les ultrasons pour détecter les
bancs de morue [4]. Ce fut vraiment la construction en masse de
transducteurs acoustiques dédiés à la lutte sous-marine pendant la
Seconde Guerre mondiale qui fournit les moyens de la bathymétrie
moderne. Nombre de navires étaient équipés à la fin de la guerre de
sondeurs acoustiques leur permettant de mesurer la profondeur.
Les navires océanographiques reçurent des outils plus perfectionnés capables de meilleures performances. Malgré la réticence
des autorités militaires, des cartes de plus en plus précises
commencèrent à être élaborées par les différentes institutions
scientifiques.
Jusqu’alors on utilisait la technique du pinceau large, directement issu des besoins de détection d’objets sous-marins. Ces
équipements envoyaient une onde acoustique dans un cône dont
l’angle au sommet était d’une quarantaine de degrés. La surface du
fond insonifiée dépend évidemment de la profondeur. D’un diamètre de l’ordre de 150 m sur le plateau continental, on passe à
3 000 m dans les plaines abyssales situées à 4 000 m de profondeur.
Il est évident que la restitution du relief s’en ressent. Un ressaut brutal, comme une falaise, se traduira sur le sonogramme par une
flexure à faible pente. À l’époque, la présence de telles structures
restait complètement inaperçue, bien que les arts traînants (chalut,
drague, etc.) faisaient état de croches très brutales et les photographies du fond, d’escarpements bien marqués.
Dans le courant des années 1970, apparurent sur le marché des
sondeurs à pinceaux étroits de quelques degrés d’angle qui donnaient une bien meilleure précision. Mais le positionnement des
profils successifs, souvent basé une navigation à l’estime, laissait à
désirer. Le positionnement par satellites du système Transit, ne
fournissait des points que toutes les deux heures au mieux et avec
une précision très discutable : au mieux 100 m, parfois plusieurs
kilomètres en raison des aléas de réception radio. Pour obtenir une
cartographie précise, il fallait disposer d’une navigation radioélectrique ou d’un positionnement acoustique utilisant des transpondeurs sur le fond. Le levé des profils demandait beaucoup de temps
et la méthode ne pouvait être utilisée que pour des objectifs de faibles dimensions. Un cartographe dessinait ensuite des isobathes en
interpolant entre les lignes de sonde.
À la fin des années 1970, la marine américaine autorisa ses fournisseurs à vendre, pour un usage civil, des échosondeurs multifaisceaux, d’un type simplifié par rapport à ceux utilisés depuis
plusieurs années pour des besoins militaires. Le Centre national
pour l’exploitation des océans CNEXO (devenu depuis l’Institut
français de recherche pour l’exploitation de la mer - Ifremer) fut le
premier à acquérir un tel équipement en 1977, qu’il installa sur le
navire océanographique Jean Charcot [5]. Ce fut une véritable
révolution : l’appareil délivrait en temps réel une carte en courbes
de niveau sur une bande de 3 km de largeur pour des fonds de
4 000 m (figure 1). Mise à part la constance de la vitesse du navire
et sa dérive transversale éventuelle, la carte fournie était infiniment
plus précise que celle qui aurait été obtenue par une série de profils
parallèles utilisant des pinceaux étroits.
Dans le même temps apparurent des lochs à effet Doppler mesurant la vitesse du navire par rapport au fond ou sur une grande
épaisseur d’eau et non plus par rapport à l’eau de surface. Une
meilleure connaissance de la vitesse du navire permettait d’effectuer des corrections de dérive et de vitesse apparente et donnait un
meilleur rendu de la bathymétrie. La mise en service en 1994 du
système de navigation par satellites Navstar/GPS (Global Positioning System ) apporta une précision jamais égalée au positionnement en haute mer : 100 m pour les usages civils avec une
amélioration possible à 10 m en utilisant un dispositif différentiel
[E 6 600] (référence [6]).
Les échosondeurs multifaisceaux se sont depuis quelques
années considérablement perfectionnés grâce à la puissance des
calculateurs embarqués. Ils disposent d’un plus grand nombre de
faisceaux balayant une plus grande largeur du fond et d’une intégration dans des complexes informatiques traitant conjointement la
navigation.
1.1.2 Transducteurs
La piézo-électricité fut découverte en 1880 par Pierre et
Jacques Curie. Mais c’est Paul Langevin, durant la guerre de
1914-1918, qui eut le premier l’idée de l’utiliser pour produire des
ultrasons pour la détection des sous-marins. Certains cristaux,
comme le quartz, le tartrate de sodium et de potassium (sel de Seignette ou de la Rochelle), le monophosphate d’ammonium (ADP),
le tartrate d’éthylène diamine (EDT) et le tartrate dipotassique
(DKT) et certaines céramiques (titanates, niobates et zirconates de
plomb, calcium et baryum) ont la propriété de se polariser électriquement lorsqu’ils sont soumis à une déformation. Réciproque-
Les signaux acoustiques sont émis et reçus par des antennes
acoustiques. Le projecteur est un émetteur d’ultrasons qui transforme un courant électrique en pression acoustique communiquée
à l’eau. À l’inverse, l’hydrophone, qui assure la réception des ultrasons, transforme une pression acoustique en tension électrique.
Tous deux sont des transducteurs de constitution similaire faisant
appel à la piézo-électricité, la magnétostriction ou l’électrostriction.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle
43
R 2 345 − 3
1
Référence Internet
R2345
MESURES GÉOPHYSIQUES EN MER ________________________________________________________________________________________________________
électrique va vibrer sous l’action du champ induit par un courant
alternatif passant dans le bobinage. Inversement, si on sollicite le
barreau par des pressions et des tractions alternatives, on induit
dans le bobinage un courant alternatif de même fréquence
[E 1 880] (référence [8]).
1
Certains matériaux dits ferroélectriques se déforment sous
l’action d’un champ électrique : c’est l’électrostriction. La déformation varie ici comme le carré du champ électrique contrairement
à l’effet piézo-électrique qui est linéaire. Pour produire ou détecter
des ultrasons, on utilise le titanate de baryum, le zircotitanate de
plomb ou le niobate de plomb façonnés sous forme de céramiques
frittées. On peut leur imposer une polarisation permanente et leur
donner par moulage et meulage les formes adaptées aux modes
de vibration les plus efficaces [3] [9].
20°
2°
Les transducteurs sont construits de manière à émettre ou recevoir des ondes sonores dans une direction privilégiée. L’onde
émise par un projecteur cylindrique n’est cependant pas limitée à
un simple cône circulaire. Si on construit le diagramme de directivité du transducteur (figure 2), on constate qu’il présente un lobe
principal dans l’axe de directivité dont la largeur est l’angle 2θ3
pour lequel l’intensité sonore est égale à la moitié de l’intensité
maximale dans la direction du lobe principal.
Route du navire
a pinceau large et étroit
b multifaisceau
Figure 1 – Sondeurs à pinceaux large et étroit
et sondeurs multifaisceaux
Les sondeurs multifaisceaux utilisent des transducteurs assemblés de manière particulière pour constituer des antennes émettrices et réceptrices (tableau 1).
2 θ3
Lobe principal
1.1.3 Antenne émettrice
D (dB)
0
–3
L’antenne émettrice est constituée de manière à insonifier une
zone très mince dans le sens longitudinal du navire (environ
o
2 d’angle) et très large dans le sens transversal. Les premiers sondeurs multifaisceaux couvraient un angle d’environ 40o, les plus
récents peuvent couvrir 90 o et plus (150 o pour l’EM 12D de
Simrad) [10]. La zone insonifiée sur le fond est l’intersection d’un
plan horizontal avec le solide de révolution engendré par la rotation d’un secteur angulaire d’angle 2 θ3 (correspondant au lobe
principal) autour de l’axe ∆ de l’antenne (figure 3). Ce n’est donc
pas un rectangle, mais une surface délimitée par deux hyperboles
symétriques. Celle-ci a par exemple à 1 000 m de profondeur une
largeur de 30 m à l’axe et de 120 m à la périphérie (ouverture
2 × 75o).
– 10
– 20
– 30
Lobes
secondaires
– 40
– 50
Suivant les fabricants, l’émission va se faire par un faisceau
unique ou suivant plusieurs secteurs (4 à 5) émettant simultanément, éventuellement dans des fréquences légèrement différentes
pour éviter les interférences. Le pointage de l’antenne doit
compenser les mouvements du navire et en particulier le roulis.
Cette compensation peut se faire en utilisant une antenne galbée
comme l’antenne semi-cylindrique du sondeur EM 1000 de Simrad,
dont on n’active que les projecteurs pointés dans la bonne direction
pour corriger le roulis. On peut aussi faire pivoter l’antenne, solution
utilisée dans l’EM 1000 pour compenser le tangage. Pour les sondeurs de grande profondeur, on préfère diriger l’émission en jouant
sur le déphasage de l’alimentation des projecteurs. La
compensation peut se faire en roulis et en tangage à partir d’une
centrale d’acquisition de ces paramètres. Elle est cependant limitée
à des mouvements de l’ordre de 15 o en roulis et d’une dizaine de
degrés en tangage. Cela implique que le système soit monté sur des
navires ayant une bonne stabilité et que l’on ne cherche pas à travailler par des mers trop fortes. Le TSM 5265, alias Seafalcon 11, de
Thomson Marconi génère cinq émissions successives avec des fréquences légèrement différentes (11,4 ; 11,7 ; 12 ; 12,3 et 12,6 kHz),
orientées électroniquement de façon à compenser les trous qui proviendraient de l’avance du navire entre chaque sondage [11] [12].
De telles antennes sont composées d’une série de projecteurs
circulaires en céramique de petit diamètre (384 de 5 cm de diamètre dans l’EM 12 ; 156 regroupés en 13 modules dans le Seafalcon 11). Ceux-ci sont disposés côte à côte à l’intérieur d’une
enceinte rectangulaire carénée allongée dans le sens longitudinal
D = 10 lg Ia /I (Ia intensité axiale, I moyenne de l'intensité
dans toutes directions)
2θ3 largeur du lobe principal
Figure 2 – Diagramme de directivité d’un transducteur
en coordonnées polaires [10]
ment, ils se déforment lorsqu’ils sont soumis à une polarisation
électrique [3] [7]. Ces matériaux soumis à un courant haute fréquence produisent des vibrations d’autant plus intenses que l’on
se rapproche de leur fréquence mécanique propre. De nouveaux
matériaux, comme le polyvinydilène difluoride (PVDF) utilisé par
Thomson, présentent des caractéristiques tout à fait intéressantes
en termes de sensibilité, de bande passante et de faible impédance
acoustique.
(0)
La magnétostriction fut utilisée dès 1935 pour la production
d’ultrasons dans la conception de sonars par R.W. Wood, Smith et
McGeachy. Elle utilise la propriété qu’ont les matériaux ferromagnétiques de se déformer lorsqu’ils sont soumis à une aimantation. Un barreau de nickel ou de ferrite placé dans un bobinage
R 2 345 − 4
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle
44
Référence Internet
R2345
_______________________________________________________________________________________________________
MESURES GÉOPHYSIQUES EN MER
Tableau 1 – Caractéristiques de quelques sondeurs multifaisceaux (données disponibles)
Nombre
de faisceaux
Profondeur P
(kHz)
Hollming
Echos 625
Echo XD
12
15 à 45
15
4 × 15
Odom [58]
Echoscan
200
Reson [59]
Sea Bat 8101
Sea Beam [60]
Sea Beam
Sea Beam 2000
Sea Beam 2112
Sea Beam 1185
Sea Beam 1055
Fréquence
Largeur de couloir (1)
Imagerie intégrée
(cf. § 2.2.4)
100 à 5 000
60 à 6 000
0,7 P
2P
oui
non
101
2 à 100
7,4 P
oui
100
101
2 à 300
7,4 P
oui
12
12
12
180
180
16
45
149
126
126
100 à 10 000
100 à 10 000
50 à 11 000
1 à 300
10 à 1 500
0,66 P
2P
7 à 2 P (24 km)
8P
8 à 1,2 P
non
oui
oui
oui
oui
Simrad [61]
EM 3000
EM 3000D
EM 1000
EM 300
EM 12S
EM 12D
EM 121
300
300
95
30
13
13
12
127
254
120
135
81
162
121
0,5 à 200
0,5 à 200
2 à 1 000
5 à 5 000
50 à 11 000
50 à 11 000
10 à 11 000
4
10
7,5
6
3,5
2,5
3,5
SNT-Atlas [62]
Hydrosweep
Fansweep 15
12
200
59
600
Thomson
Lennermor
Seafalcon 11
12
12
20
5 × 400
Triton [21]
Hydro Suite 150
200
128
Type
(m)
P (200 m)
P (250 m)
P (1 000 m)
P (5 000 m)
P (18 km)
P (22 km)
P (25 km)
oui
oui
oui
oui
oui
oui
oui
2P
oui
oui
8 à 500
80 à 11 000
2P
3,5 P
oui
oui
0,5 à 300
7,4 P
oui
(1) Valeur maximale entre parenthèses.
du navire, qui sera placée sous la coque. Les dimensions d’une
telle antenne peuvent varier de 1 à 6 m de long et de 5 à 60 cm de
large, suivant le type et la marque. Pour augmenter l’efficacité et
la largeur balayée, on peut disposer deux antennes symétriques, à
bâbord et à tribord, comme pour l’EM 12D de Simrad qui couvre
ainsi 150o.
y
∆
1.1.4 Antenne réceptrice
x
2θ3
L’antenne réceptrice devra « écouter » les échos réverbérés par
le fond dans une zone plus large que la partie insonifiée de
manière à tenir compte du tangage lors de la réception. Cette zone
est divisée en bandes d’écoute de quelques degrés, parallèlement
à l’axe du navire (figure 4).
Les faisceaux seront distribués régulièrement, mais avec un
recouvrement plus ou moins important. Ainsi l’EM 12 possède
81 faisceaux espacés de 1,1o couvrant une bande de 90o par 18o.
L’angle d’ouverture dans le sens transversal varie de 3,5o pour les
faisceaux proches de la verticale à 5o pour les plus obliques. La
zone de réception aura ainsi une dimension qui variera de 1,5 à
10 m transversalement à l’axe du navire et de 10 à 200 m longitudinalement, suivant la profondeur et le type de sondeur utilisé.
z
Figure 3 – Surface insonifiée par le faisceau émetteur [10]
maximale (MAD Maximum Amplitude Direction ), permet de discriminer les mesures à intervalles d’un milliradian (0,06 o) ; on peut
ainsi obtenir jusqu’à 2 000 mesures par cycle de sondage.
L’antenne est composée de plusieurs centaines d’hydrophones
disposés par séries (210 hydrophones en 42 barreaux de 5 hydro-
Le Seafalcon 11 utilise deux méthodes pour effectuer les
mesures. L’une, basée sur le niveau d’énergie, forme 150 faisceaux
séparés de 1o. L’autre méthode, basée sur la direction d’amplitude
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle
45
R 2 345 − 5
1
Référence Internet
R2345
MESURES GÉOPHYSIQUES EN MER ________________________________________________________________________________________________________
sr
Sr
Sr max
Sr
xi
1
(1/2) Sr max
di
sr
zi
G
θi
Faisceau émetteur
tr2 tr1
t
sr = f (t ) amplitude du signal retour
temps correspondant au barycentre de
tr1
la surface engendrée par la courbe sr
tr2
temps correspondant à la moitié de
la valeur maximale de Sr = F (t ) = #sr dt
Faisceau récepteur
Figure 5 – Détermination de l’instant retour [10]
Figure 4 – Disposition des faisceaux émetteurs et récepteurs
d’un sondeur multifaisceau [29]
tue, par combinaison des séries d’hydrophones, deux demi-voies
dont on mesure en permanence la variance du déphasage des
impulsions sonores reçues, en affectant à l’une d’elles un
déphasage correcteur proportionnel au sinus de l’angle d’inclinaison du faisceau étudié. Cette variance va s’annuler à l’instant où on
reçoit le signal provenant du point situé dans la direction d’inclinaison. On peut ainsi déterminer cet instant même pour un signal
faible reçu avec un niveau de bruit important.
phones pour l’EM 12 ; 450 en 90 barreaux répartis dans 5 modules
pour le Seafalcon 11). L’ensemble a une forme rectangulaire de
1 à 3 m de longueur et 5 à 50 cm de largeur suivant les modèles et
est installé transversalement à l’axe du navire.
La qualité de réception dépend évidemment du niveau de réverbération (appelée aussi réflexion diffuse ou rétrodiffusion) de
l’onde acoustique sur le fond, du niveau de bruit de fond naturel
de la mer ou du bruit créé par le navire. Le premier dépend de la
dureté et de la rugosité du fond. Il varie de – 30 à – 40 dB. Le bruit
naturel de la mer dépend de l’état de la mer, il est de moins de
40 dB pour une mer calme et de 45 dB pour un état de mer 4. Le
bruit créé par le navire est de l’ordre de 40 à 50 dB. C’est ainsi que
la couverture de l’EM 12 est limitée à 19 km pour un fond avec une
forte réverbération (– 30 dB) et un fort niveau de bruit (50 dB) ou
pour un fond à faible réverbération et un faible niveau de bruit
(40 dB).
1.1.5 Traitement des signaux reçus
Les signaux analogiques provenant des hydrophones sont
regroupés par rangées pour former les canaux d’entrée du dispositif de traitement. Ils sont amplifiés, filtrés pour éviter les bruits
parasites et le gain est ajusté de manière à obtenir un niveau identique quelle que soit la profondeur. Ces signaux sont ensuite
convertis en signaux numériques.
Les différents hydrophones enregistrent des échos provenant
des différents points insonifiés, qui se superposent. Ceux provenant d’un même point sont reçus par les hydrophones avec un
déphasage dépendant du chemin parcouru et donc de l’angle sous
lequel revient le signal. En combinant ces différents signaux légèrement déphasés, on constitue une voie qui ne correspond qu’aux
échos provenant d’une direction précise. Ces voies sont autant de
faisceaux récepteurs inclinés. Les combinaisons d’hydrophones et
de déphasages pour former les voies sont évidemment très nombreuses. Chaque fabricant a développé ses propres algorithmes en
fonction de la puissance de calcul disponible et des caractéristiques du matériel utilisé.
Par combinaison de différentes méthodes, on finit par obtenir
une série de valeurs précisant l’inclinaison de la voie, l’instant
retour correspondant, ainsi que la valeur de l’amplitude du signal
à cet instant retour. On pratique alors un certain nombre de corrections qui tiennent compte des mouvements de pilonnement du
navire, de la profondeur d’immersion des antennes et de la variation de la célérité du son dans la colonne d’eau. Cette dernière correction est essentielle pour tenir compte de la trajectoire réelle de
l’onde sonore (figure 6).
On calcule alors pour chaque faisceau, à l’instant t correspondant à la moitié du temps moyen de parcours des ondes acoustiques aller et retour, la profondeur zi et la distance transversale di
correspondant à chaque faisceau i , ainsi que l’amplitude du signal
retour. Ces données vont servir au tracé de la bathymétrie, après
recoupement avec les données de navigation.
L’analyse du signal doit aussi déterminer l’instant spécifique correspondant à l’écho de retour. Généralement, on ne retient du signal
que ce qui intervient dans une fenêtre d’écoute, ajustée par rapport
aux balayages précédents. Puis l’instant retour est choisi, soit
comme le temps correspondant au barycentre de la surface générée
par la courbe mesurant l’amplitude du signal en fonction du temps
(au-dessus d’un seuil donné et dans une fenêtre déterminée), soit
comme le temps correspondant au moment où est atteinte la moitié
de la valeur maximale des amplitudes cumulées (figure 5).
1.2 Cartographie
Dans un cas comme dans l’autre, cette valeur est d’autant moins
précise que le faisceau considéré est incliné. La réflexion du signal
est alors plus faible et la surface insonifiée étant plus étendue, les
retours s’étendent sur une plus longue période. Pour les inclinaisons supérieures à 15-20o, on utilise l’interférométrie. On consti-
R 2 345 − 6
Contrairement à la topographie dont le niveau de référence est
celui de l’ellipsoïde géodésique et l’axe positif orienté vers le
zénith, la bathymétrie a pour surface de référence la surface de la
mer et l’axe positif des mesures est dirigé vers le nadir.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle
46
Référence Internet
R2345
_______________________________________________________________________________________________________
C (m/s)
1 500
1 480 1 520
500
métrique en temps différé) et de logiciels servant au traitement de
l’imagerie sonar (MAITREIS, IMAGEM, TRIAS).
Le système CARAIBES est capable de prendre en compte des
données provenant de la plupart des sondeurs multifaisceaux existant sur le marché {Simrad (EM 950, EM 1 000, EM 12S et EM 12D),
L-3 Communications Sea Beam Instruments (Sea Beam 2100),
Thomson (Lennermor, Seafalcon 11), Krupp-Atlas (Hydrosweep),
Hollming (Echos XD), Furuno, etc.}. Il importe aussi les données de
navigation provenant de la plupart des systèmes existants. Il est
capable également de traiter et d’archiver les données d’environnement (gravimétrie, magnétisme, météorologie, cap, roulis, tangage, etc.). L’ensemble de ces données sont archivées sur disques
magnétiques et sur disques optiques numériques. Il permet la
création de profils de célérité (vitesse du son dans l’eau en fonction
de la profondeur) à partir de données de tirs Sippican.
Il comporte deux ensembles logiciels :
— CARAIBES_TR pour les traitements en temps réel. Il assure la
mise au format et l’archivage des données et crée des index d’accès
qui en faciliteront l’accès ultérieur. Il visualise la carte bathymétrique
sous forme d’isobathes dans le repère choisi par l’utilisateur avec
diverses fonctions (zoom, panoramique, suivi du navire, création de
profils, ajout de trait de côte, de route prévisionnelle, de plan de station, de chemin de câbles, etc.). Il assure aussi la visualisation de
l’imagerie lorsque celle-ci est disponible. Il permet de visualiser également les données d’environnement sous forme de profils le long
de la route du navire et de traiter les profils de célérité par filtrage
en les complétant à partir de la base de données mondiales Levitus ;
— CARAIBES_TD pour les traitements en temps différé. Il
comporte deux modules l’un traitant les données de bathymétrie,
l’autre les données d’imagerie. Dans chaque cas, le logiciel assure
l’importation et l’archivage des données de navigation et différents
filtrages et corrections préparant les données pour la cartographie.
Il permet la visualisation et l’impression de cartes isobathes et prépare les données pour l’exportation au format d’autres programmes
de cartographie (ArcView, Cartolib,...).
x
Couche superficielle
Thermocline saisonnière
α
Thermocline principale
1 000
1 500
Trajectoire réelle
2 000
2 500
Trajectoire rectiligne
3 000
z (m)
MESURES GÉOPHYSIQUES EN MER
Écart d'incidence
Fond
Figure 6 – Célérité et trajectoire d’une onde acoustique [10]
1.2.1 Cartographie en temps réel
Les constructeurs de sondeurs multifaisceaux proposent un
ensemble de logiciels permettant d’obtenir des cartes bathymétriques en temps réel, en fait quelques minutes après l’émission
du signal. Ces logiciels assurent la fusion du fichier des données
venant du sondeur (t, {di , zi }) avec les données de navigation qui
donnent la position du navire en fonction du temps (t, x, y ). On
obtient ainsi une table de données (xi , yi , zi ) qui va permettre le
tracé des isobathes. La plupart de ces logiciels n’offrent que peu de
possibilités de validation et de correction des données avant tracé,
et le résultat obtenu ne satisfait pas complètement les utilisateurs.
En particulier, le filtrage des bruits, des sondes erronées ou la correction de la navigation, surtout avant l’apparition du GPS, laissent
à désirer et les cartes obtenues comportent de nombreuses aberrations topographiques.
1.2.3.1 Dépouillement de la navigation
Le dépouillement de la navigation prend en compte les données
provenant :
— du gyrocompas et des lochs doppler et électromagnétique ;
— de différents types de récepteurs de navigation par satellites
GPS ;
— de récepteurs de navigation par satellites Transit ;
— de récepteurs de navigation radioélectrique (Loran C, Syledis,
Omega, Toran, Decca, etc.).
Ces données sont visualisées et filtrées de manière interactive. On
travaille d’abord sur les données d’estime (cap et vitesse) en éliminant les données aberrantes, en lissant et en interpolant les
valeurs par méthodes graphiques à la console. Ces données corrigées sont confrontées à la navigation GPS et aux autres navigations
disponibles, par visualisation graphique. On cherche la représentation la plus précise de la route suivie par le navire et à connaître
l’angle de dérive du bateau, qui est la différence entre le cap et la
route fond. En effet, les mesures bathymétriques issues des différents faisceaux sont perpendiculaires au navire, donc au cap, mais
pas forcément à la route. Il faut aussi tenir compte des recouvrements
des faisceaux lors des évolutions du navire. Après correction, les
données sont enregistrées sous format utilisable par le programme
de cartographie, sous la forme de positions successives du navire en
coordonnées géographiques (ti , ϕi , Gi ) ou métriques (ti , xi , yi ).
1.2.2 Cartographie en temps différé
Les utilisateurs ont fait développer tout d’abord des logiciels permettant le retracé de la carte à partir des données brutes enregistrées sur disque optique numérique. L’apparition de cette
technologie a permis le stockage et la relecture rapide de vastes
quantités de données sur de faibles volumes (plusieurs gigaoctets),
ce qui était pratiquement impossible lorsque l’enregistrement se
faisait sur des bandes magnétiques. On peut alors visualiser les
données brutes et les corriger soit en faisant intervenir des algorithmes, soit par intervention de l’observateur. Le rejeu des données de navigation permet aussi leur filtrage et leur correction
ainsi que la prise en compte des dérives du navire enregistrées par
le loch doppler, les systèmes de navigation radioélectrique ou par
satellite. Après filtrage et fusion des données, l’opération de tracé
peut utiliser plusieurs techniques cartographiques plus ou moins
sophistiquées.
1.2.3 Logiciel CARAIBES
À titre d’exemple, nous allons succinctement décrire les opérations effectuées par le logiciel CARAIBES (CARtographie Appliquée
à l’Imagerie et à la BathymétriE des Sonars et sondeurs multifaisceaux), mis au point par l’Ifremer. Ce logiciel est la troisième génération de systèmes développés par cet organisme pour le
traitement de la bathymétrie et l’imagerie sonar. Le logiciel actuel
provient de la refonte des logiciels ARCHIV (archivage des données
brutes du sondeur sur disque optique numérique), VIDOSC (visualisation des données en temps réel le long de la route du navire),
TRINAV (dépouillement de la navigation), TRISMUS (carte bathy-
1.2.3.2 Dépouillement de la bathymétrie
Le dépouillement des données de bathymétrie utilise les données fournies par le sondeur multifaisceau. Pour chaque cycle, on
enregistre :
— la date et l’heure ;
— l’attitude du navire à la transmission (cap, roulis, tangage et
pilonnement) ;
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle
47
R 2 345 − 7
1
1
48
Référence Internet
TE5228
Géoradar
Principes et applications
par
1
Florence SAGNARD
Ingénieur en sciences et technologies de l’université Pierre et Marie Curie
Docteur en physique de l’université Paris-Sud Orsay
Habilitée à diriger les recherches de l’université Marne-la-Vallée
Chargée de recherche, Institut français des sciences et technologies des transports, de
l’aménagement et des réseaux (IFSTTAR), département COSYS, Villeneuve-d’Ascq, France
et
Fayçal REJIBA
Parution : avril 2016 - Dernière validation : décembre 2018
Ingénieur en génie civil de l’École nationale d’ingénieurs de Tunis (ENIT)
Docteur en géophysique appliquée de l’université Pierre et Marie Curie, Paris 6
Habilité à diriger des recherches de l’université Pierre et Marie Curie, Paris 6
Maître de conférences à l’université Pierre et Marie Curie , Paris 6, Paris, France
TE 5 228v2 - 2
—
2
—
3
—
4
—
4
—
4
—
5
1.
1.1
1.2
1.3
1.4
1.5
1.6
Principe du géoradar et propagation dans les sols....................
Principes ...................................................................................................
Propriétés électriques des sols ...............................................................
Propagation électromagnétique dans le sol..........................................
Génération des hyperboles.....................................................................
Techniques de modulation .....................................................................
Réglementations ......................................................................................
2.
2.1
2.2
2.3
2.4
Stratégie de prospection ...................................................................
Principes ...................................................................................................
Positionnements de mesure ...................................................................
Géométrie des antennes .........................................................................
Problématique d’investigation................................................................
—
—
—
—
—
5
5
5
7
7
3.
3.1
3.2
Modélisations électromagnétiques.................................................
Problème posé .........................................................................................
Modélisation électromagnétique des systèmes géoradar
par la méthode des différences finies dans le domaine temporel ......
—
—
9
9
—
10
4.
4.1
4.2
4.3
Traitement des signaux reçus ..........................................................
Objectifs et précautions préalables ........................................................
Radar de surface : traitements de données avancés ............................
Radar de forage : inversion de données ................................................
—
—
—
—
10
10
10
13
5.
5.1
—
14
—
14
—
14
5.4
Quelques exemples d’applications..................................................
Archéologie : détection de cavité (latrine du château de Chambord,
France) ......................................................................................................
Hydrogéologie : détection d’un front d’humectation
(Niayes près du lac Tanma, Sénégal).....................................................
Étude stratigraphique d’un glacier rocheux
(Plan du Lac, Vanoise, France)................................................................
Génie civil : détection de canalisations enterrées.................................
—
—
14
15
6.
Conclusion .............................................................................................
—
15
7.
Glossaire .................................................................................................
—
17
5.2
5.3
Pour en savoir plus ........................................................................................ Doc. TE 5 228v2
e géoradar (en anglais GPR pour Ground Penetrating Radar) est une
technique de prospection géophysique non destructive fondée sur l’analyse
des phénomènes de propagation (réfraction, réflexion et diffraction) des ondes
L
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
49
TE 5 228v2 – 1
Référence Internet
TE5228
GÉORADAR ________________________________________________________________________________________________________________________
1
électromagnétiques hautes fréquences (10 MHz à 2 GHz) dans le sous-sol. Le
géoradar, initialement de nature impulsionnelle, est fondé sur l’excitation du
sous-sol, à partir d’une antenne d’émission, par un train d’impulsions de durée
courte (1 à 50 ns) afin de détecter, à l’aide d’une antenne de réception, les échos
successifs associés aux contrastes de permittivités ou de conductivités rencontrés par les ondes électromagnétiques au cours de leur propagation. Ces
contrastes témoignent de la présence de cibles enfouies ou de stratifications du
sous-sol. L’utilisation du géoradar fréquentiel est bien plus récente en raison
des contraintes instrumentales qui lui sont associées, et il fait l’objet d’un
nombre important de travaux de recherche actuels.
C’est le déplacement du radar à la surface ou dans le sol qui permet
d’acquérir des traces (coupes radar ou « scans ») sur une fenêtre temporelle, et
de former des radargrammes (ou images radar) de la structure du sous-sol. On
distingue les applications visant à détecter des objets ou des anomalies de
celles ayant pour objectif la détermination des propriétés intrinsèques du
sous-sol. Les applications sont multiples : géologie, hydrologie, glaciologie,
environnement, prospection minière, néotectonique, archéologie, génie civil...
Parmi ces applications, on peut citer la localisation d’objets enfouis métalliques ou non métalliques tels que les câbles, les conduites, les fondations, les
ferraillages, les cavités, les zones altérées, les mines et la caractérisation des
propriétés intrinsèques des matériaux géologiques (sols, roches) ou artificiels
(béton, l’asphalte ou le bois). Chaque type d’application requiert une mise en
œuvre expérimentale spécifique (acquisition en réflexion ou transmission,
échantillonnage spatial, cartographie 2D ou 3D, fréquence nominale de l’excitation...) et des traitements associés aux signaux bruts (filtrage, migration,
inversion des données) afin de reconstituer un modèle du sous-sol. L’amélioration de la détection par un système géoradar tient actuellement au
développement de nouvelles techniques de traitement du signal et de tomographie. Nous présentons ici les diverses étapes qui conduisent à la définition
des paramètres optimaux d’acquisition en prospection géoradar.
1. Principe du géoradar
et propagation
dans les sols
Récepteur
Affichage
Stockage
Émetteur
1.1 Principes
Trajet direct
dans l'air
Source
modulation
Le géoradar (ou radar géologique) constitue l’une des
méthodes géophysiques (sismique, électrique, magnétique, gravimétrique...) susceptible de fournir des informations sur la distribution, la nature, et la composition des matériaux composant le
sous-sol terrestre. Le géoradar repose sur l’interprétation des
signaux détectés en réflexion ou transmission suite à leur propagation dans le sous-sol (figure 1). L’allure des signaux est intrinsèquement reliée aux contrastes de permittivités et de
conductivités électriques dans un milieu aux propriétés particulièrement hétérogènes, atténuantes et dispersives.
Air
Trajets
directs
TX
Échantillonnage
discrétisation
Antenne radar
RX
Trajet
Direct
Sol
dans le sol
Trajet
réfléchi
sur R1
L’utilisation et le développement de la technique de prospection
électromagnétique se sont considérablement accrus depuis les
années 1980 conduisant ainsi à deux types de finalités : la caractérisation du sous-sol (texture, composition, teneur en eau) et la
détection, la localisation et éventuellement l’identification
d’objets enfouis (mines, tuyaux, cavités...) [1] [2] [3]. L’utilisation
de différentes fréquences nominales (usuellement entre 10 MHz et
2 GHz) permet d’atteindre différentes profondeurs d’investigation
et diverses résolutions spatiales (en pratique λ/2, λ = v /f étant la
longueur d’onde associée à la vitesse de propagation v et la fréquence nominale f ), ces deux paramètres étant inversement proportionnels. La profondeur d’investigation est particulièrement
délicate à estimer car elle résulte d’un compromis entre le choix de
TE 5 228v2 – 2
Traitement de signal
inversion
Déplacement x
e1
Discontinuité
R1
Signal
transmis
Signal
réfléchi
e2
R2
Trajet
réfléchi
sur R2
Temps
e3
Profondeur z
Figure 1 – Schéma du principe de fonctionnement d’un géoradar
de surface dans la configuration bistatique (émetteur et récepteur
dissociés)
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
50
Référence Internet
TE5228
________________________________________________________________________________________________________________________ GÉORADAR
la fréquence nominale et les caractéristiques atténuantes du milieu
(essentiellement sa conductivité) pour obtenir une bonne pénétration des ondes électromagnétiques dans le sous-sol, et une résolution spatiale fine.
Tableau 1 – Caractéristiques diélectriques
de quelques constituants du sous-sol
De façon générale, tandis qu’à basses fréquences (entre 10 et
100 MHz) la profondeur d’investigation est élevée (plusieurs
mètres voir dizaines de mètres) et la résolution faible (quelques
dizaines de centimètres à quelques mètres), à hautes fréquences
(entre 1 200 MHz et 2 GHz), la profondeur d’investigation est plus
faible (d’ordre décimétrique voir millimétrique) et la résolution élevée (environ dix fois plus faible). Elle dépend étroitement de l’atténuation intrinsèque du milieu, et en particulier de sa conductivité
électrique. Par exemple, la profondeur d’investigation est quasi
nulle dans une argile de conductivité supérieure à 10–1 S · m–1, et
est considérable (plusieurs centaines de mètres) dans la glace
propre qui apparaît transparente aux ondes radar (conductivité
inférieure à 0,001 S · m–1).
Permittivité réelle
relative
Conductivité
Eau douce
81
< 0,001
Eau salée
81
1 000
3à4
0,001 à 0,01
Milieu
Glace
Sable sec
1.2 Propriétés électriques des sols
Aux fréquences usuelles du géoradar, la majorité des sols présente des contrastes diélectriques bien plus significatifs que des
contrastes magnétiques. Par conséquent, on supposera que la perméabilité est équivalente à celle du vide (µ = µ0 = 4 π × 10–7 H · m–
1). Les propriétés électriques (permittivité et conductivité) des
matériaux géologiques et du génie civil sont des grandeurs complexes (au sens mathématique) qui dépendent généralement de la
fréquence. Les lois de comportement diélectrique complexes traduisent des phénomènes de stockage d’énergie (partie réelle) et de
perte d’énergie (partie imaginaire) [5] [6] [7]. Sachant qu’un sol est
généralement un milieu hétérogène, on utilise la notion de permittivité complexe effective relative
(par rapport à celle du
vide ε0 = 1/(36 π × 109) F · m–1) pour exprimer ses propriétés
électriques :
2,5 à 5
0,001 à 0,01
Calcaire sec
4à8
0,1 à 1
Granite
4à6
0,01 à 1
Grès
4à5
0,3 à 1
Argiles
3 à 60
0,1 à 300
Marnes
5 à 15
1 à 100
1
La permittivité réelle de l’eau (proche de 80) présente une valeur
très supérieure à la plupart des constituants d’un sol (entre 3 et 9)
et influence considérablement la permittivité effective réelle
d’un milieu naturel aux fréquences radar. La permittivité effective peut donc être un très bon indicateur de la teneur en
eau.
Un sol étant un mélange aléatoire de divers constituants (gaz,
solide(s), fluide(s)), sa permittivité effective réelle dépend des permittivités réelles de chacune des phases ainsi que de leur répartition géométrique dans le milieu. La difficulté de modéliser le
comportement d’un sol a conduit à développer divers modèles
pour exprimer sa permittivité réelle effective en fonction des caractéristiques diélectriques et géométriques des divers constituants.
Par exemple, des modèles physiques (DEM, Differential effective
Medium), des relations empiriques et semi-empiriques [5] [6].
(1)
Les modèles semi-empiriques sont fondés sur des « lois de
mélange ». Ces lois expriment le comportement diélectrique d’un
milieu à plusieurs phases en fonction des permittivités réelles des
matériaux constituants, des interactions électromagnétiques entre
ces mêmes constituants, de leurs fractions volumiques, de la
forme des inclusions, ainsi que d’autres paramètres caractérisant
la microstructure du mélange. La multitude de lois de mélange
reflète la difficulté réelle de modéliser un milieu hétérogène et la
nécessité de les adapter à chaque type de milieu.
où
sont respectivement les parties réelle et imaginaire de
la permittivité diélectrique, σ (S · m–1) est la conductivité électrique
associée à un courant continu, ω = 2πf est la fréquence angulaire
de l’onde électromagnétique de fréquence f, et j2 = – 1.
Aux fréquences usuelles du géoradar, les principaux mécanismes de relaxation observés sont associés à la polarisation dipolaire. Ces mécanismes sont essentiellement induits indirectement
ou directement par la présence d’eau dans les matériaux naturels,
et les sols en particulier.
Dans le cas de sols humides, la loi semi-empirique de puissance ou loi
(Ulaby et al., 1985) associée à la permittivité réelle
effective est la plus utilisée. Elle a pour expression :
Les modèles analytiques les plus utilisés qui rendent compte de
la dépendance fréquentielle de la permittivité complexe relative
d’un milieu naturel sont fondés sur les modèles de Debye (1929),
Cole-Cole (1941), ou Cole-Davidson (1951) [4] [5]. Ces modèles
peuvent être exprimés à l’aide du formalisme général suivant :
(3)
où
représentent respectivement la fraction volumique et la
permittivité réelle du composant i du mélange, avec
(2)
.
Le paramètre α est associé à la géométrie du mélange, et
dépend de la direction du champ électrique incident
.
Tandis que la formule de Birchak et al. considère que α = 0,5 (formule de CRIM, Complex Refractive Index Model ), celle de
Looyenga suppose que α = 1/3, et celle de Silberstein que α = 1.
Fratticioli et al. ont introduit deux paramètres supplémentaires,
une constante et un facteur multiplicatif [7].
avec εs et ε∞, qui s’expriment en F · m–1, les valeurs limites à basses
et hautes fréquences de la partie réelle de εe respectivement, τ le
temps de relaxation. Les paramètres α et β [sans dimension] représentent des facteurs d’amortissement
.
Dans le cas d’un seul pôle de relaxation, le modèle de Debye a
pour paramètres (α = 1, β = 1), le modèle de Cole-Cole suppose
que β = 1 et le modèle de Cole-Davidson que α = 0.
Cependant, la relation précédente ne considère pas la géométrie
des structures internes du milieu et la distribution microscopique
des fluides, ceux-ci pouvant avoir des effets importants sur les pro-
Le tableau 1 rassemble des valeurs de permittivité et de conductivité de matériaux usuels du sous-sol aux fréquences du géoradar.
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
51
TE 5 228v2 – 3
Référence Internet
TE5228
GÉORADAR ________________________________________________________________________________________________________________________
(4)
À la distance z = 1/α, l’atténuation de l’onde atteint la valeur de
1/e. Cette distance est une indication de la profondeur de pénétration de l’onde ; cependant, cette dernière dépend de plusieurs facteurs et notamment de phénomènes de diffractions générés par
des objets de taille limitée (inférieure à λ) et des surfaces
rugueuses qui ne sont actuellement pas considérés dans la
relation (8).
où φ2 est la fraction volumique de la phase dispersée dans la
matrice et L est un paramètre associé à la forme des éléments de
la phase dispersée.
respectives de 6,17 et 54 dB · m–1 pour des conductivités σ variant
de 10–2 à 10–1 S · m–1. À la fréquence f = 900 MHz, αdB/m atteint les
priétés diélectriques de milieux géologiques non saturés. La formule de Hanai-Bruggeman-Sen qui considère deux phases (une
phase dispersée
noyée dans une matrice
) permet de
résoudre partiellement cette problématique :
1
Pour
Parmi les modèles empiriques existants, le plus utilisé est le
modèle empirique de Topp et al. (1980). Il est adapté essentiellement pour les sols sableux et a été développé dans la bande de
fréquences [0,01 GHz, 1 GHz]. Il relie la permittivité effective réelle
d’un sol à sa teneur en eau volumique f à l’aide d’un polynôme
de degré 3 de la façon suivante :
, à la fréquence f = 200 MHz, αdB/m prend les valeurs
valeurs de 6,18 et 61,3 dB · m–1. La conductivité est le paramètre le
plus influent sur le coefficient d’atténuation.
La vitesse de phase de l’onde s’exprime de la façon suivante :
(9)
(5)
Dans le cas d’un milieu à faibles pertes tan δ ≈ 0, la vitesse de
phase se réduit à :
où A, B, C, et D sont des coefficients dépendants du type de sol.
Une variation moyenne de
avec la teneur en eau volumique φ a
été établie par Topp, ce qui conduit aux coefficients suivants :
A = 3,03, B = 9,3, C = 146 et D = – 76,7.
(10)
10–2
m–1,
S·
une fréquence f = 200 MHz,
et
,
Pour σ =
les vitesses de phase V sont respectivement de 1,13 × 108 et
8
–1
0,65 × 10 m · s .
1.3 Propagation électromagnétique
dans le sol
1.4 Génération des hyperboles
La propagation des ondes électromagnétiques (champs électrique et magnétique) dans la matière est régie par les équations
de Maxwell qui peuvent être exprimées dans les domaines temporel ou fréquentiel. La spécificité du géoradar, par comparaison au
radar aérien, tient à la présence de l’interface air-sol et des cibles à
détecter dans le sous-sol dans la zone de champ proche des
antennes. Dans ce contexte, la modélisation analytique des phénomènes de propagation s’avère incomplète. Cependant, le formalisme utilisé pour établir les principaux paramètres de prospection
géoradar sont basés sur l’hypothèse de la propagation en champ
lointain (onde plane). Par la suite, une modélisation électromagnétique numérique beaucoup plus exhaustive pourra être entreprise
pour valider et affiner le choix de ces paramètres.
Le déplacement du système radar (émetteur/récepteur) à la surface du sol permet de détecter des cibles réfléchissantes qui ne
sont pas directement situées à l’aplomb des antennes. Lors de la
progression du radar, les cibles vont apparaître sous divers angles
d’observation correspondant à des trajets d’ondes et des temps de
propagation différents. Ainsi, une forme hyperbolique est associée
à chaque cible réfléchissante (figure 2a) et le point le plus haut de
l’hyperbole (l’apex) indique la position latérale (en Ox) de la cible
comme présenté en figure 2b.
Considérant ainsi une onde plane incidente sinusoïdale, dont le
champ électrique est polarisé selon la direction Ox et se propage
selon l’axe Oz, sa propagation dans le sous-sol en présence de
contrastes diélectriques est à l’origine de phénomènes de
réflexions, diffractions et transmissions (figure 1). À la réception,
dans la direction des trajets réfléchis, l’onde reçue apparaît atténuée et déphasée [8]:
(11)
Considérant un milieu homogène de permittivité réelle relative
e′ indépendante de la fréquence, le temps de parcours aller-retour
de l’onde électromagnétique, suite à sa réflexion sur la cible située
à la profondeur di est :
1.5 Techniques de modulation
(6)
De façon générale, deux types de systèmes géoradar peuvent
être distingués :
– les systèmes temporels ;
– les systèmes fréquentiels.
où β = ω/V est le facteur de phase, V est la vitesse de phase de
l’onde et α, en Np · m–1, le facteur d’atténuation.
La vitesse de propagation V et l’atténuation α sont les deux
paramètres caractérisant la propagation des ondes électromagnétiques dans un milieu et qui dépendent de ses propriétés diélectriques. Leur connaissance va permettre de décrire les propriétés
physiques et la structure du sous-sol.
Les radars temporels (radar impulsionnels) reposent sur
l’envoi d’un train d’impulsions de durée brève (typiquement entre
200 ps et 50 ns) à une fréquence de répétition longue (1 à 100 µs),
et la réception d’échos successifs issus des rétrodiffusions par les
éléments constitutifs du sol.
Le facteur d’atténuation s’écrit :
Les radars fréquentiels sont fondés sur l’envoi d’un signal
modulé en fréquence qui peut être effectué au moyen d’un
balayage linéaire (FMCW, Frequency Modulated Continuous Wave)
ou d’un balayage discret par paliers (SFCW, Step Frequency Continuous Wave). La technologie des radars fréquentiels est plus
récente que celle des radars impulsionnels du fait des contraintes
plus sévères demandées aux fonctions électroniques, ainsi la plupart des radars commerciaux sont de type impulsionnel. Ils offrent
toutefois des performances significatives en termes de rapport
signal à bruit (SNR) et de dynamique. Dans le cas du radar impul-
(7)
et s’exprime en dB/m de la façon suivante :
(8)
8
–1
avec c = 3 × 10 m · s vitesse de propagation dans le vide (air), et
tangente de pertes diélectriques.
TE 5 228v2 – 4
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
52
Référence Internet
C224
Géophysique appliquée
au génie civil
1
par
Richard LAGABRIELLE
Ingénieur Civil des Mines
Docteur ès Sciences
Directeur technique
Laboratoire Central des Ponts et chaussées
1.
1.1
1.2
Présentation ..............................................................................................
Les méthodes de reconnaissance ..............................................................
Place de la géophysique dans les méthodes de reconnaissance............
2.
2.1
2.2
2.3
2.4
Généralités sur la géophysique............................................................
Définition de la géophysique......................................................................
Paramètres physiques utilisés en géophysique........................................
Méthodes géophysiques.............................................................................
Déroulement d’une campagne de géophysique.......................................
—
—
—
—
—
3
3
3
4
4
3.
3.1
3.2
Gravimétrie ................................................................................................
Principe de base...........................................................................................
Microgravimétrie .........................................................................................
—
—
—
4
4
5
4.
4.1
4.2
4.3
4.4
Sismique .....................................................................................................
Principe de base des méthodes sismiques ...............................................
Sismique réfraction .....................................................................................
Sismique réflexion.......................................................................................
Sismique en ondes de surface ...................................................................
—
—
—
—
—
7
7
9
10
11
5.
5.1
5.2
5.3
Méthodes électriques en courant continu ........................................
Principe de base...........................................................................................
Sondage électrique......................................................................................
Traîné et carte de résistivité, panneaux électriques .................................
—
—
—
—
13
13
13
15
6.
Magnétisme (pour mémoire).................................................................
—
17
7.
7.1
7.2
7.3
7.4
Méthodes électromagnétiques.............................................................
Principe de base...........................................................................................
Radio-magnétotellurique ............................................................................
Dipôle-dipôle électromagnétique...............................................................
Radar géologique ........................................................................................
—
—
—
—
—
17
17
19
21
21
8.
Radioactivité (pour mémoire) ...............................................................
—
22
Références bibliographiques .........................................................................
—
23
C224v2 – 2
—
2
—
2
a géophysique applique les moyens de la physique à l’étude de la structure
des terrains. Elle se pratique à partir de la surface du sol (géophysique de
surface), dans un forage au moyen d’une sonde portant les instruments de
mesure (diagraphies) ou entre forages, forage et surface, forage et galerie
(géophysique de forage). C’est l’une des approches utilisées pour la reconnaissance géotechnique du site avant la construction d’un ouvrage (bâtiment, infrastructure urbaine ou infrastructure de transport, barrage...). La reconnaissance
géotechnique d’un site consiste à déterminer la nature et la répartition des
Parution : mai 2007
L
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie
est strictement interdite. − © Editions T.I.
53
C 224v2 − 1
Référence Internet
C224
GÉOPHYSIQUE APPLIQUÉE AU GÉNIE CIVIL __________________________________________________________________________________________________
1
matériaux dont il est composé et à déterminer leurs propriétés. Ces éléments
servent à préciser l’emplacement ou le tracé de l’ouvrage à construire, à
concevoir ses fondations et à décider des procédés de construction. Une grande
partie des reconnaissances s’applique à l’hydrogéologie et en particulier aux
relations de l’ouvrage avec l’eau.
La reconnaissance se traduit par l’élaboration d’un modèle géologique.
Un modèle géologique est un ensemble de représentations d’un site sous ses
différents aspects (nature, répartition, propriétés des matériaux qui le constituent). Ces représentations prennent matériellement la forme de cartes, de
coupes, de blocs diagrammes, de coupes de sondages, de textes ou même de
maquettes.
Au départ, la reconnaissance est toujours fondée sur un premier modèle
géologique, qui peut être très sommaire, imprécis ou peu fiable. Le but de la
reconnaissance est de l’améliorer, de le rendre fiable, précis, le plus complet
possible afin de permettre une conception de l’ouvrage qui repose sur les
données dont on a besoin et qui soient les plus sûres possible.
1. Présentation
L’interprétation des mesures géophysiques aboutit à un zonage
du terrain reconnu, à une première répartition des différents matériaux et à une évaluation de leurs propriétés. Le zonage sert à
implanter des sondages mécaniques de manière optimale. Il s’agit
de forages, destructifs ou carottés, avec éventuellement enregistrement de paramètres. Dans cette catégorie entrent aussi les tranchées de reconnaissance, les puits ou les galeries.
Une qualité indispensable du modèle géologique est sa cohérence. Toutes les méthodes employées pour la reconnaissance consistent à faire des observations et des mesures et à les interpréter.
Observations et mesures ne peuvent se faire qu’à partir de la surface du sol ou d’excavations (forages, galeries, tranchées, puits...) :
leur interprétation doit conduire à la description du sous-sol partout
dans son volume. C’est là que l’exigence de cohérence intervient :
les interprétations doivent être compatibles. Plus les méthodes utilisées sont variées, plus les contraintes sur l’interprétation sont fortes
et plus la vérification du critère de cohérence rend fiable le modèle
géologique élaboré.
Les observations réalisées grâce aux sondages mécaniques servent à identifier précisément la nature des matériaux rencontrés et à
définir la position des interfaces. Elles sont aussi mises à profit pour
affiner les interprétations de la géophysique qui, en retour, permet de
juger de la représentativité des informations issues des sondages.
Pour les essais de laboratoire, des échantillons (aussi peu remaniés que possible) sont prélevés à partir de sondages mécaniques.
Les forages peuvent être valorisés par des diagraphies différées
[C 225]. Ils peuvent également servir de base à des dispositifs de
géophysique de forage et à pratiquer des essais géotechniques en
place. Dans ce dernier cas, le forage est réalisé spécialement pour
l’essai ou il peut être constitutif de l’essai (essai pressiométrique,
essai pénétrométrique...).
1.1 Les méthodes de reconnaissance
Elles peuvent être classées selon un ordre chronologique de leur
usage et selon le niveau de détail souhaité. Naturellement, le processus de reconnaissance n’est pas linéaire ; à mesure que celle-ci
est réalisée et que de nouvelles observations et de nouvelles mesures apportent des données supplémentaires, les données accumulées depuis le début sont réexaminées afin de s’assurer de la
cohérence de l’ensemble.
1.2 Place de la géophysique
dans les méthodes de reconnaissance
Dans le processus de reconnaissance, la géophysique intervient
donc à plusieurs stades. Elle sert à améliorer le premier modèle
géologique en donnant une vision d’abord approximative de la
structure du sous-sol en volume (en complétant en profondeur les
observations de surface), puis elle est utilisée pour optimiser
l’implantation des sondages mécaniques qui, à leur tour, permettent
de préciser les interprétations géophysiques.
L’élaboration du modèle géologique préalable commence par la
recherche et l’exploitation des données disponibles, cela grâce à des
enquêtes, collectes d’archives orales ou écrites, étude de documents géologiques (cartes géologiques, articles, thèses, rapports,
etc.), banques de données publiques et privées, études de photos
aériennes et satellitaires. Les résultats précédents sont validés et
enrichis par des observations, des relevés et la cartographie
détaillée sur le terrain, qui doivent être faits par un spécialiste mais
restent d’un coût faible. Des échantillons peuvent être prélevés à la
surface du sol dès ce stade de la reconnaissance ; ils servent à identifier précisément les matériaux rencontrés.
À un stade plus avancé de la reconnaissance, la géophysique sert
à valoriser les forages au moyen des diagraphies et des techniques
géophysiques de forage.
Avec la géologie, la géophysique permet d’évaluer le caractère
représentatif des informations ponctuelles tirées des sondages
mécaniques et des essais géotechniques en place et elle contribue à
la cohérence du modèle géologique. Elle aide à la résolution de problèmes spécifiques comme les problèmes de terrassement, la détection de cavités souterraines ou d’autres types d’hétérogénéités, la
détermination des masses volumiques ou des teneurs en eau,
l’identification des argiles, l’évaluation de la fracturation, etc.
Le modèle géologique est maintenant de plus en plus élaboré. Les
techniques géophysiques de surface sont choisies en fonction du
type de terrain rencontré, du type de contraste attendu, des profondeurs d’investigation, du niveau de détail visé ainsi que du type particulier de problème technique à résoudre (par exemple évaluation
des difficultés de terrassement, détection d’éventuelles cavités
souterraines, etc.).
C 224v2 − 2
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie
est strictement interdite. − © Editions T.I.
54
Référence Internet
C224
_________________________________________________________________________________________________ GÉOPHYSIQUE APPLIQUÉE AU GÉNIE CIVIL
2. Généralités
sur la géophysique
Les valeurs les plus basses (500 m/s) correspondent aux
matériaux très altérés de surface, les valeurs les plus fortes
(6 000 m/s) à du rocher très sain et non fracturé. Pour mémoire,
la vitesse du son dans l’air est d’environ 340 m/s, dans l’eau elle
vaut 1 425 m/s.
2.1 Définition de la géophysique
Les principales méthodes sismiques sont la sismique réfraction et
la sismique réflexion, la sismique par ondes de surface, la tomographie sismique, le cross-hole ainsi que les diagraphies sonique et
microsismique.
La géophysique appliquée est la discipline qui consiste à étudier (observer, mesurer) un champ physique à la surface du sol
ou dans des cavités creusées dans le sol. Ce champ physique,
dont l’origine peut être naturelle ou provoquée, dépend d’un ou
plusieurs paramètres caractéristiques des matériaux dont on
cherche à déterminer la répartition dans le terrain.
■ Caractéristiques électriques
Les matériaux du sous-sol sont conducteurs de l’électricité.
La conductivité, notée σ, est la grandeur qui caractérise cette propriété. Elle se mesure en siemens par mètre (S/m).
Cette définition ne se comprend pas immédiatement si l’on n’a
pas d’exemple de méthode en tête. Elle deviendra plus claire quand
on aura lu les paragraphes suivants et, en particulier, le tableau
synoptique 1.
La résistivité, notée ρ, est l’inverse de la conductivité, elle se
mesure en ohms-mètres (Ω · m). Plus ρ est faible, plus le matériau
est conducteur.
La résistivité peut prendre des valeurs qui couvrent plusieurs
ordres de grandeur, de quelques ohms-mètres pour des terrains
très argileux et très humides à plusieurs dizaines de milliers
d’ohms-mètres pour des matériaux rocheux très sains, en passant par toutes les valeurs intermédiaires.
2.2 Paramètres physiques utilisés
en géophysique
■ Masse volumique
Il y a donc entre les matériaux des contrastes de résistivité très
forts. Cela confère aux méthodes fondées sur la recherche de la
répartition de la résistivité un grand pouvoir de discrimination entre
les matériaux. Ces méthodes sont la prospection électrique par courant injecté (dont les diagraphies de résistivité, cf. [C 225]) et les
méthodes électromagnétiques en basses fréquences.
L’ordre de grandeur courant de la masse volumique des sols
en place est de 2 000 kg/m3.
Le champ de pesanteur dépend de la répartition des masses donc
de la répartition de la masse volumique des matériaux du terrain.
Par exemple, l’existence d’une cavité souterraine correspond à un
déficit de masse et provoque une anomalie négative de la pesanteur
mesurée en surface. La gravimétrie est la méthode qui exploite ces
phénomènes.
Une autre méthode géophysique est utilisée pour déterminer précisément la valeur de la masse volumique et sa répartition ; il s’agit
de la méthode de diagraphie différée appelée gamma-gamma.
■ Caractéristiques magnétiques et électromagnétiques
Les propriétés magnétiques des matériaux sont quantifiées par la
perméabilité magnétique relative µr et la susceptibilité magnétique
χ:
µr = 1 + χ
■ Caractéristiques élastiques (modules d’élasticité, vitesses des
ondes mécaniques)
La vitesse de propagation des ondes mécaniques dans les matériaux dépend de leurs modules d’élasticité (modules d’Young et de
Poisson, coefficients de Lamé) et de leur masse volumique. Les
méthodes sismiques ont pour but de découvrir la répartition des
vitesses des ondes mécaniques.
Elles sont peu utilisées en génie civil. Une méthode magnétique
est parfois utilisée pour rechercher des objets contenant du fer sur
un site qui peut avoir servi de décharge (en revanche, le magnétisme est très utilisé en archéologie pour découvrir des restes de
poteries ou d’autres hétérogénéités comme les vestiges du phare de
Pharos). Nous ne parlerons pas dans cet article des méthodes
magnétiques.
(0)
Tableau 1 – Méthodes utilisées en géophysique
Méthode
Grandeur mesurée
Paramètre
Origine du champ physique
Gravimétrie
Champ de pesanteur
Masse volumique
Naturelle
Sismique
Temps de trajet
Vitesse d’ondes mécaniques
Provoquée
Électrique par courant injecté
Potentiel électrique
Résistivité
Provoquée
Magnétique
Champ magnétique
Susceptibilité magnétique
Naturelle
Électromagnétique
Champ électromagnétique
Résistivité et permittivité
Provoquée
Radioactivité
Nombre d’événements
Radioactivité des roches
Naturelle ou provoquée
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie
est strictement interdite. − © Editions T.I.
55
C 224v2 − 3
1
Référence Internet
C224
GÉOPHYSIQUE APPLIQUÉE AU GÉNIE CIVIL __________________________________________________________________________________________________
Le tableau 1 indique les six grandes méthodes utilisées en
géophysique. Sur chaque ligne, on reconnaît les éléments de la
définition 2.1. En particulier, on a indiqué dans la dernière colonne
quelle était l’origine du champ physique observé, naturelle ou provoquée. Certaines méthodes font en effet appel à un phénomène
physique dont la source est parfaitement naturelle (gravimétrie,
magnétisme, radioactivité naturelle), d’autres au contraire
nécessitent l’emploi de sources artificielles (sismique, électrique,
électromagnétisme, radioactivité provoquée).
Les caractéristiques électromagnétiques autres que µr et χ sont
encore la conductivité σ, déjà citée, et la permittivité relative εr.
Celle-ci a une influence sur la vitesse de propagation des ondes
électromagnétiques qui vaut :
v = c ⁄ εr
1
avec
c
vitesse de la lumière dans le vide (3 · 108 m/s).
Chacune des méthodes, définies par le domaine de la physique
auquel elles se rattachent, est divisée en techniques géophysiques
suivant le type de mise en œuvre et les objectifs visés. On distingue
les techniques géophysiques de surface, les techniques de forage et
les diagraphies.
εr vaut 1 pour l’air, environ 4 pour un matériau sec, jusqu’à
environ 20 pour un matériau très humide et 80 pour l’eau.
La vitesse de l’onde électromagnétique varie donc dans un
rapport de 1 à 9 et peut être utilisée pour distinguer les matériaux du sous-sol.
Les techniques géophysiques de surface sont mises en œuvre
uniquement à partir de la surface du sol.
Les diagraphies sont des techniques géophysiques mises en
œuvre à l’intérieur d’un forage et dont le rayon d’investigation n’est
jamais beaucoup plus grand que le rayon du forage. Elles servent à
mesurer en place un paramètre physique avec la meilleure
définition verticale possible, mais elles ne permettent pas d’augmenter le rayon d’investigation du forage ni de porter un jugement
sur le caractère représentatif des informations obtenues à partir du
forage.
Les méthodes géophysiques fondées sur la détermination de la
répartition des caractéristiques électromagnétiques (σ et εr) sont le
radar géologique et la tomographie électromagnétique en ondes
monochromatiques.
■ Radioactivité des roches
Les roches contiennent en quantités variables des éléments naturels radioactifs, le potassium 40, le radium et l’uranium.
Les techniques géophysiques de forage tirent parti de l’existence
d’un ou plusieurs forages pour se rapprocher de leur cible ; elles servent à augmenter le rayon d’investigation des forages, à obtenir des
informations sur le sous-sol à des profondeurs plus grandes
qu’avec les méthodes de surface et avec une meilleure résolution.
Elles sont donc naturellement plus ou moins radioactives. Cette
propriété est mise à profit en géophysique pour les distinguer. Ainsi,
parmi les matériaux sédimentaires, les argiles sont les matériaux les
plus radioactifs, les calcaires purs ne le sont pas et les marnes et
marnocalcaires le sont plus ou moins suivant leurs teneurs en minéraux argileux. Parmi les matériaux cristallins, les granites sont les
plus radioactifs.
Les trois types de techniques sont naturellement complémentaires.
Les diagraphies de radioactivité naturelle (RAN ou γ -ray) utilisent
ces propriétés pour déterminer les matériaux traversés par un
forage.
2.4 Déroulement d’une campagne
de géophysique
La radioactivité peut aussi être provoquée par un bombardement
neutronique des matériaux. L’étude de ces phénomènes (de durée
de vie de quelques dizaines de minutes au maximum) a conduit à la
mise au point de méthodes d’analyse chimique élémentaire en
forage (diagraphie neutron -γ).
Une campagne de géophysique comporte toujours cinq phases :
— la conception ;
— la mesure sur le terrain ;
— le traitement des mesures ;
— l’interprétation géophysique des mesures ;
— l’interprétation en termes du problème de reconnaissance à
résoudre.
Enfin, les propriétés d’absorption des rayonnements par les matériaux sont exploitées. L’absorption des rayons γ permet la mesure en
place, très précise, de leur masse volumique (diagraphie γ – γ).
L’absorption des neutrons permet la mesure de leur teneur en eau
(diagraphie neutron - neutron).
Dans la suite de cet article, les travaux à réaliser au cours de chaque phase seront décrits pour chaque technique géophysique. Cette
description est fortement inspirée par le document intitulé
« Géophysique appliquée. Code de bonne pratique » [1]. Ce document, élaboré et édité par des professionnels français de la
géophysique appliquée, décrit pour chaque technique géophysique
en quoi doit consister une prestation minimale pour que l’on puisse
la considérer comme une prestation de qualité. Le document est
régulièrement révisé par l’Association professionnelle AGAP-QUALITÉ. Dans cet article, nous développons et justifions ces recommandations.
2.3 Méthodes géophysiques
Le fondement d’une méthode géophysique est l’influence de la
valeur et de la répartition dans le sol d’une caractéristique physique
particulière sur un champ physique. Ainsi chaque type de caractéristique cité paragraphe 2.2 est associé à une méthode géophysique.
Il faut souligner au passage que les caractéristiques qui viennent
d’être évoquées ne sont pas toutes directement utiles à la conception des ouvrages. Elles servent simplement d’intermédiaires pour
reconnaître la structure du sous-sol. C’est pour cela que la
géophysique est souvent qualifiée de méthode indirecte de reconnaissance. Lorsque, par exemple, l’extension d’une couche géologique est déterminée grâce à la résistivité du matériau qui la
constitue, l’hypothèse qui justifie ce type de méthode est que, si la
résistivité est constante, les propriétés géotechniques du matériau
sont aussi constantes puisqu’il s’agit partout du même matériau. Il
suffit donc d’évaluer les propriétés géotechniques en un point pour
les connaître partout dans le matériau. Ces méthodes seront
décrites dans les paragraphes 3 à 8.
C 224v2 − 4
3. Gravimétrie
3.1 Principe de base
La gravimétrie est l’étude des variations du champ de pesanteur à
la surface du sol. La figure 1 montre la variation de la composante
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie
est strictement interdite. − © Editions T.I.
56
Référence Internet
C224
_________________________________________________________________________________________________ GÉOPHYSIQUE APPLIQUÉE AU GÉNIE CIVIL
La constante C vaut :
Anomalie (␮gal)
C = 3 · 10−6 − 2π Gd (en unités SI)
160
où d est la masse volumique des terrains de surface qu’il convient
d’estimer au mieux, G étant la constante universelle de gravitation
(G = 6,67 × 10−11 N · m2/kg2). Le terme indépendant de la densité correspond à la correction dite « à l’air libre » (la gravité diminue lorsque l’altitude augmente, parce que l’on s’éloigne des masses qui en
sont la source), le terme dépendant de la densité compense partiellement ce phénomène, il s’agit de la correction dite de « plateau »,
qui tient compte de la présence d’une lame de matière entre l’altitude de référence et celle du point courant.
140
120
100
Cylindre
80
60
Sphère
40
20
--15
--10
--5
0
5
La correction T de relief corrige le fait que cette dernière lame de
matière présente en réalité une épaisseur variable, un relief. Son calcul est analytique et il existe des logiciels permettant de l’effectuer à
partir d’un modèle numérique de terrain.
10
15
Distance (m)
Dans la formule (1), les variations temporelles de g dues à la
marée ou à la dérive de l’appareil sont déjà prises en compte et évaluées expérimentalement grâce à des mesures périodiques à la base
avec une période inférieure à 1 h.
Masse volumique du sol : 2 000 kg/m3
Figure 1 – Anomalie gravimétrique due à une cavité de 6 m
de diamètre, centrée à 5 m de profondeur
La formule (1) de l’anomalie de Bouguer, avec la signification
des termes que l’on vient de donner, n’est pas la formule rigoureuse de la gravimétrie en général mais celle qui est utilisée
pour la reconnaissance en génie civil. Dans sa définition rigoureuse, g0 est une valeur théorique sur un ellipsoïde de référence
dont l’altitude est zéro par définition. z est alors l’altitude du
point de mesure par rapport à l’ellipsoïde de référence. En génie
civil, il vaut mieux prendre l’altitude de référence à la base pour
que les corrections soient faibles.
verticale de l’anomalie du champ de pesanteur due à la présence
dans le sous-sol d’une cavité de 6 m de diamètre dont le toit est à
2 m de profondeur dans un terrain homogène de masse volumique
2 000 kg/m3. Deux courbes sont représentées l’une pour une cavité
de forme sphérique (en trait plein), l’autre pour une cavité cylindrique d’axe perpendiculaire au plan de la figure (en tireté). L’anomalie
est naturellement négative ; en valeur absolue, elle vaut au maximum 1,5 · 10−6 m · s−2, soit un peu plus d’un dix millionième de la
valeur du champ de pesanteur total (10 m · s−2).
La carte de l’anomalie de Bouguer est le document qui résulte
d’une campagne de mesures (figure 2). Remarquons au passage
que les mesures ne se résument pas à celle de la gravité mais qu’il
faut aussi connaître l’heure de passage aux différentes stations
(avec une précision de l’ordre de la minute) et les altitudes relatives
(avec une précision de l’ordre du centimètre).
En pratique, on n’utilise pas comme unité de mesure le m · s−2
mais un sous-multiple de l’ancienne unité du système CGS, le
gal ou cm · s−2. En gravimétrie appliquée à la reconnaissance en
génie civil, l’unité est le microgal (1 µgal = 10−8 m · s−2).
L’anomalie de Bouguer (figure 2 a) présente des variations de
grandes longueurs d’onde dues à des phénomènes géologiques
régionaux et profonds et des variations à petites longueurs d’ondes
dues à des phénomènes locaux et peu profonds. Le premier type de
variation est l’anomalie régionale (figure 2 b) et n’intéresse pas en
principe la reconnaissance en génie civil. L’anomalie résiduelle
(figure 2 c) est la différence entre l’anomalie de Bouguer et l’anomalie régionale. C’est elle qu’il faut interpréter.
Le champ de pesanteur se mesure au moyen d’un gravimètre. Le
principe est de mesurer la force qui s’exerce sur une masse unitaire
suspendue à un ressort (peson à ressort). Naturellement, un gravimètre comporte des raffinements qui lui confèrent une très grande
sensibilité et qui rendent la mesure aussi peu dépendante que possible de la pression atmosphérique ou de la température. Les gravimètres utilisés pour la reconnaissance ne servent pas à mesurer la
gravité absolue mais ses variations dans l’espace et dans le temps,
leur précision est de quelques microgals.
La force qui s’exerce sur la masse du gravimètre dépend du
temps (phénomène de la marée terrestre due à l’influence sur la
valeur de la gravité de la position de la lune et du soleil). Elle dépend
aussi de la latitude et de l’altitude du point de mesure ainsi que du
relief.
3.2 Microgravimétrie
C’est la seule technique de gravimétrie utilisée en génie civil.
D’autres techniques existent pour d’autres domaines d’application
de la géophysique.
On compare la valeur de la gravité en différents points d’un
réseau maillé à celle d’un point de référence appelé base. Les mesures sont toutes ramenées à la même altitude, corrigées des variations temporelles, de l’effet de la latitude et du relief. On calcule
ainsi « l’anomalie de Bouguer » :
A = g − (g0 − Cz − T )
avec
g
3.2.1 Domaine d’application
(1)
En génie civil, la microgravimétrie sert à rechercher des cavités
souterraines qu’elles soient d’origine naturelle (cavités karstiques
principalement) ou artificielles (anciennes carrières souterraines,
anciennes exploitations minières, caves, citernes, galeries de drainage ou d’alimentation en eau...). Les cavités sont soit remplies
d’air, soit plus ou moins remblayées ou noyées. Dans ces deux derniers cas, elles sont plus difficiles à détecter que s’il s’agit de vides
francs.
la gravité au point courant,
g0
gravité à la base,
C
constante,
z
différence d’altitude entre le point courant et la
base,
T
la correction due au relief.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie
est strictement interdite. − © Editions T.I.
57
C 224v2 − 5
1
1
58
Référence Internet
E4312
Géolidar pour l’étude des surfaces,
de la biosphère et de l’hydrosphère
par
1
Pierre H. FLAMANT
Doctorat d’État en Physique, Université Pierre & Marie Curie
Directeur de Recherche au CNRS
1.
1.1
1.2
Mesures lidar sur les surfaces .............................................................
Domaines d’applications ............................................................................
Méthodes et instruments ...........................................................................
2.
2.1
2.2
2.3
2.4
2.5
2.6
2.7
2.8
Lidar topographique ...............................................................................
Cibles............................................................................................................
Bilan de liaison ............................................................................................
Albédo des cibles ........................................................................................
Dépolarisation .............................................................................................
Rapport signal sur bruit..............................................................................
Applications.................................................................................................
Échantillonnage des surfaces ....................................................................
Erreurs sur les mesures..............................................................................
—
—
—
—
—
—
—
—
—
4
4
4
7
7
7
8
9
10
3.
3.1
3.2
3.3
3.4
3.5
3.6
Lidar canopée ...........................................................................................
Cibles............................................................................................................
Bilan de liaison ............................................................................................
Albédo de cibles..........................................................................................
Dépolarisation .............................................................................................
Fluorescence................................................................................................
Applications.................................................................................................
—
—
—
—
—
—
—
11
11
12
13
13
13
13
4.
4.1
4.2
4.3
4.4
4.5
4.6
Lidar bathymétrique ...............................................................................
Cibles............................................................................................................
Bilan de liaison ............................................................................................
Dépolarisation .............................................................................................
Raman vibrationnel et Brillouin .................................................................
Fluorescence................................................................................................
Applications.................................................................................................
—
—
—
—
—
—
—
14
14
15
15
15
17
17
5.
Conclusion.................................................................................................
—
18
Pour en savoir plus ..........................................................................................
E 4 312 - 2
—
2
—
2
Doc. E 4 312
e lidar est une méthode de télédétection laser qui est utilisée en
recherche et dans l’industrie pour caractériser les surfaces et l’atmosphère. L’abréviation « lidar » signifie : « LIght Detection And Ranging » sur le
modèle de : radar, sodar ou sonar. Ce terme peut s‘appliquer indifféremment
à un grand nombre d’instruments, de techniques et d’applications. Dans les
faits, le lidar recouvre deux grands domaines d’activités et des communautés
distinctes quant à leurs manières de traiter les problèmes. La communauté
« atmosphère » est plutôt formée de groupes de recherche, chacun développant ses instruments et ses algorithmes de traitement du signal et d’analyse
des données [E4310, E4311], tandis que la communauté « surface » se structure en utilisateurs institutionnels ou privés qui font appel à des sociétés de
service équipées de lidars industriels et de logiciels standardisés.
Parution : mai 2011
L
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie
est strictement interdite. – © Editions T.I.
59
E 4 312 – 1
Référence Internet
E4312
GÉOLIDAR POUR L’ÉTUDE DES SURFACES, DE LA BIOSPHÈRE ET DE L’HYDROSPHÈRE ____________________________________________________________
1
Le présent article traite des lidars géophysiques, ou géolidars, pour les surfaces terrestres et l’exploration planétaire. Il présente la physique de la mesure,
les méthodes, l’instrumentation et les applications. En tout premier lieu, le lidar
utilise le temps de vol de la lumière pour connaître la distance aux cibles diffusantes. La mesure de distance à elle seule est d’une très grande importance pour
les levées topographiques, la bathymétrie des milieux aquatiques et la géodésie.
De plus, la mesure de l’intensité diffusée, de la dépolarisation de la lumière
reçue et du spectre diffusé sert à caractériser les cibles.
cageuses), ou de manières épisodiques ou accidentelles lors de
crues. Les lidars bathymétriques sont aéroportés pour la plupart
ou embarqués sur bateaux. Certains de ces lidars sont utilisés
pour le suivi de pollutions marines accidentelles (nappes de
pétrole) et pour la caractérisation de la faune et de la flore aquatique.
1. Mesures lidar
sur les surfaces
1.1 Domaines d’applications
Comme la réflectivité de la lame d’eau varie avec la force du
vent de surface, on mesure celui-ci de manière indirecte par
réflectivité lidar. On peut aussi mesurer le débit des cours d’eau
par effet Doppler en utilisant la réflexion diffuse à l’interface aireau.
Les grands domaines d’applications sont présentés sur la
figure 1 : lithosphère (terre solide, sols), anthroposphère (zones
construites et urbanisées), biosphère (végétation, forêts, agriculture) et hydrosphère (milieux aquatiques). L’avion qui emporte le
lidar est équipé d’un système de positionnement au sol (GPS) précis et d’un système de navigation inertielle (INS) pour connaître
l’attitude de l’avion. L’avion est en relation avec la station GPS de
référence au sol et la constellation satellite GPS. La direction de
visée du lidar est variable. La topographie utilise des lasers émettant plutôt à 1064 nm, alors que la bathymétrie utilise des lasers
émettant à 532 nm pour sonder les masses d’eau dans la profondeur. En bathymétrie, il faut prendre en compte la réfraction à
l’interface air-eau (non représentée à l’échelle utilisée sur la
figure 1).
Dans le passé, des prototypes de lidars topographiques ont été
testés avec succès par la NASA durant les missions d’exploration
lunaire Apollo 15, 16 et 17. Par la suite, des missions altimétriques
lidar ont été conduites avec succès à partir de la navette spatiale
pour établir des modèles numériques de terrain à l’échelle de la
Terre. Plus récemment, le satellite ICESat de la NASA lancé en
2003 a montré tout le potentiel des mesures lidar à partir de
l’espace pour la topographie des surfaces et de la canopée. On
doit aussi mentionner les applications géodésiques pour la mesure
précise de la distance Terre-Lune ou le suivi de satellites en orbite
autour de la Terre par des stations au sol.
L’altimétrie laser est utilisée pour les levées topographiques en
trois dimensions des surfaces naturelles ou construites. C’est le
principal domaine d’application en termes d’activité et de marché
économique.
1.2 Méthodes et instruments
Les applications topographiques reposent sur une altimétrie
laser précise et une connaissance tout aussi précise de la position du lidar et de sa direction de visée. Dans la grande majorité
des cas, les lidars topographiques sont aéroportés et ils peuvent
couvrir en peu de temps des zones géographiques étendues.
Des lidars au sol ou à bord de camionnettes sont aussi utilisés
pour la cartographie de bâtiments. Les lidars topographiques
aéroportés servent à établir des modèles numériques de surface
(MNS) qui s’appliquent aux sols nus, et des modèles numériques de terrain, avec : bâtiments, rues, routes, digues, couloirs
pour lignes électriques à haute tension, etc. Certains de ces
lidars sont aussi utilisés pour les prospections géologiques, sismiques et archéologiques. Un historique [1] montre qu’en 1996
il n’existait qu’un seul fabricant de lidar altimétrique et quelques
sociétés de services pour les applications topographiques, alors
qu’en 1999 il existait déjà plusieurs fabricants et plus de
40 sociétés de services. Aujourd’hui, en 2010, toutes ces applications sont présentées et discutées dans un forum bisannuel
(www.lidarmap.org).
La figure 2 établit le lien entre : 1) les cibles diffusantes, macroscopiques ou microscopiques, 2) les processus d’interaction
lumière-matière et 3) les applications (voir figure 1). Comme pour
tous les lidars, les processus d’interaction lumière-matière sont à
la fois le support de la mesure (signal lidar) et la signature de la
variable géophysique que l’on cherche à mesurer.
Les instruments lidar ont une architecture monostatique
(figure 3) dans laquelle le laser de sondage et le télescope qui
reçoit le signal diffusé sont solidaires. L’axe d’émission du laser
et l’axe du télescope sont confondus ou parallèles. Le signal lidar
utile est fourni par la réflexion diffuse de cible (voir l’indicatrice
de diffusion sphérique pour une cible dite lambertienne). Pour les
applications altimétriques à la topographie, les lasers émettent
des impulsions courtes (quelques nanosecondes) à haute
cadence (de 1 kHz à plusieurs centaines de kilohertz). La diffusion
élastique sans changement de longueur d’onde par les cibles
naturelles ou bâties est le support de la mesure de distance.
L’incertitude sur la mesure est liée au seuil choisi pour détecter le
temps de montée du signal renvoyé par la cible. La topographie
utilise de préférence des lasers Nd-YAG émettant de faibles énergies par impulsion (10 µJ à 1 mJ) dans le proche IR (1 064 nm),
alors que la bathymétrie utilise des lasers Nd-YAG émettant des
énergies de plusieurs dizaines de millijoules dans le visible
(532 nm) avec des cadences de tirs de plusieurs dizaines à quelques centaines de hertz. La longueur d’onde 532 nm est bien
adaptée aux mesures bathymétriques car elle peut pénétrer les
milieux aquatiques jusqu’à des profondeurs de plusieurs dizaines
de mètres.
Dans le domaine de la biosphère, l’altimétrie laser aéroportée
est utilisée pour des inventaires forestiers à grande échelle et
pour l’agriculture. Certains lidars sont aussi mis en œuvre pour
des études d’impact écologique sur la faune et la flore. À côté des
applications altimétriques, l’émission de fluorescence de la chlorophylle excitée par laser est utilisée pour caractériser la végétation terrestre et aquatique, ainsi que les microorganismes en
milieux aquatiques.
Dans le domaine de l’hydrosphère, les lidars sont utilisés en
bathymétrie pour des relevés topographiques de surfaces
immergées en permanence (littoraux, lacs, rivières, zones maré-
E 4 312 – 2
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie
est strictement interdite. – © Editions T.I.
60
Référence Internet
E4312
_____________________________________________________________ GÉOLIDAR POUR L’ÉTUDE DES SURFACES, DE LA BIOSPHÈRE ET DE L’HYDROSPHÈRE
Constellation GPS
1
Les porteurs sont généralement
des petits avions à moteur pour
un meilleur échantillonnage
des surfaces
Lidar aéroporté
avec INS et GPS
Constellation GPS
Propagation dans
l’atmosphère
R = ct /2n
Balayage de la
ligne de visée lidar
Relief
Sol
Station GPS sol
de référence
Lithosphère :
sols, aménagement
du territoire
Réflexions surfaciques
diffuses
Hydrosphère :
plateaux continentaux, littoraux,
rivières, lacs, zones inondées
Propagation en milieux
aquatiques
Biosphère :
forêts, agriculture
Anthroposphère :
environnement urbain
et industriel
Propagation dans
la végétation
Réflexions surfaciques
diffuses
Figure 1 – Applications des lidars aéroportés à l’étude des surfaces : lithosphère et anthroposphère, biosphère, hydrosphère
avec
Le rayonnement laser renvoyé par les cibles est reçu par le télescope, puis détecté et converti en signal numérique. L’enregistrement du signal lidar est déclenché sur l’émission laser (à t = 0). La
mesure de distance (R) repose sur la mesure précise du temps de
vol aller-retour des photons :
n
indice de réfraction du milieu,
c
vitesse de la lumière.
On néglige l’indice de l’air (nair = 1,000293) pour les applications
aéroportées et des distances d’une dizaine de kilomètres. Au
contraire, il est pris compte en bathymétrie même à courte portée :
neau = 1,33, et pour la réfraction à l’interface air-eau (loi de SnellDescartes).
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie
est strictement interdite. – © Editions T.I.
61
E 4 312 – 3
Référence Internet
E4312
GÉOLIDAR POUR L’ÉTUDE DES SURFACES, DE LA BIOSPHÈRE ET DE L’HYDROSPHÈRE ____________________________________________________________
Biosphère
Cibles
1
Processus d’interaction
lumière matière
Applications
Diffusion élastique, réflexions
diffuses multiples
Architecture végétale
Forêts, agriculture
Fluorescence chlorophylle
induite par laser
Biomasse, gestion
forestière, écologie
Végétation
Canopée
Lithosphère
Topographie
Surfaces naturelles :
sols, roches, …
Anthroposphère
Environnement
construit et habité
Hydrosphère
Surfaces immergées
Particules, bulles,
plantes, plancton
Diffusion élastique
Réflexion diffuse unique
Géologie, sismologie,
archéologie
Zones urbaines
Aménagement du territoire
Réflexions élastiques diffuses
Dépolarisation
Bathymétrie, topographie
des surfaces immergées
Sédiments, végétation
Diffusion inélastique
Raman vibrationnel
Bathymétrie, topographie
des surfaces immergées
Diffusion inélastique
Brillouin
Température (eau)
Plancton, matière
organique dissoute
Fluorescence chlorophylle
induite par laser
Végétation aquatique,
pollutions
Interface air-eau
Diffusion élastique
Réflexion diffuse
Bathymétrie
Vent de surface
Étendue d’eau
Figure 2 – Mise en correspondance des cibles diffusantes, des processus d’interaction lumière-matière et des applications à la biosphère, lithosphère
et hydrosphère
2. Lidar topographique
d) réflexion majoritairement diffuse avec composante dans la
direction spéculaire ;
2.1 Cibles
e) réflexion diffuse avec composante rétro-réfléchie forte dans le
sens opposé au faisceau laser incident (point chaud ou « hot spot »).
Les sols et les surfaces bâties (béton, briques, asphalte, etc.)
sont des cibles surfaciques dures diffuses et/ou spéculaires impénétrables aux rayonnements laser, qui absorbent pour partie le
rayonnement incident et qui renvoient le reste dans le demi-plan
(figure 4). La fraction diffusée détermine l’albédo (ou réflectance) :
0 ≤ρ c ≤1. La figure 4 illustre les différents types de réflexion :
2.2 Bilan de liaison
Le bilan de liaison de la mesure lidar sur cible surfacique dure
diffuse peut être suivi étape par étape :
1) émission au temps t = 0, d’une impulsion laser de courte durée tK ;
a) réflexion spéculaire (comme par un miroir), aucune lumière laser
n’est renvoyée vers le lidar, le récepteur du lidar ne voit pas la cible !
2) propagation aller du rayonnement laser dans l’air ;
3) réflexion diffuse par la cible ;
b) réflexion complètement diffuse ou lambertienne : le rayonnement laser est diffusé dans le demi-plan supérieur (2π sr). L’indicatrice de diffusion en cos ζ pour l’intensité diffusée Iζ (en W. sr1) est
sphérique, et le récepteur voit la cible ;
4) réception par le télescope d’une petite partie de la lumière diffusée après propagation retour dans l’air ; le signal optique lidar
est la somme des ondelettes renvoyées par chacun des points de
la cible (figure 3) ;
c) réflexion plutôt spéculaire : très peu de lumière est renvoyée
vers le lidar ;
E 4 312 – 4
5) détection au temps t de la lumière reçue par le télescope ;
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie
est strictement interdite. – © Editions T.I.
62
Référence Internet
RAD7420
Scanners lasers terrestres
Des nuages pour la géomatique
par
1
Vincent BARRAS
Ingénieur HES en géomatique
Professeur de topométrie, lasergrammétrie
Institut de l’ingénierie du territoire (Insit), Haute École d’Ingénierie et de Gestion du canton
de Vaud (HEIG-VD), Yverdon-les-Bains, Suisse
1.
1.1
1.2
1.3
Types de mesures....................................................................................
Référence interne ........................................................................................
Référence à la verticale...............................................................................
Prise de photos............................................................................................
2.
2.1
2.2
2.3
2.4
Quelques considérations sur les lasers.............................................
Classification des scanners lasers .............................................................
Les longueurs d’onde .................................................................................
Des fantômes dans les nuages ..................................................................
Précision ......................................................................................................
—
—
—
—
—
4
4
5
6
7
3.
3.1
3.2
3.3
3.4
3.5
Étapes de travail ......................................................................................
Le champ de vision et la résolution...........................................................
Le traitement du signal retour ...................................................................
La répartition des stations..........................................................................
L’assemblage...............................................................................................
Le géoréférencement..................................................................................
—
—
—
—
—
—
8
8
9
9
9
11
4.
4.1
4.2
4.3
4.4
4.5
4.6
Traitements et utilisation du nuage de points................................
Nettoyage ....................................................................................................
Utilisation du nuage de points bruts .........................................................
Digitalisation dans les nuages de points ..................................................
Modélisation via des formes géométriques .............................................
Placement d’objets......................................................................................
Autres utilisations des nuages de points ..................................................
—
—
—
—
—
—
—
12
12
12
12
14
14
15
5.
5.1
5.2
5.3
Évolutions et conclusions.....................................................................
Les stations totales avec fonction de scannage .......................................
Les systèmes mobiles.................................................................................
Conclusions .................................................................................................
—
—
—
—
16
16
16
17
6.
Glossaire ....................................................................................................
—
17
Pour en savoir plus .................................................................................
RAD 7 420 - 2
—
3
—
3
—
3
Doc. RAD 7 420
urant la seconde moitié des années 1990, quelques firmes ou laboratoires
spécialisés présentent de drôles d’instruments qui mélangent le principe
du tachéomètre des géomètres et le principe du scannage d’une feuille de
papier, un laser balaye, de manière sphérique, l’environnement pour fournir un
nuage de points tridimensionnels, soit un « raster » 3D ou « nuage » 3D.
Les premiers résultats présentés au public sont des relevés de raffineries
souvent compliqués à cartographier en raison de la complexité des tuyauteries. À ses débuts, la lasergrammétrie (technique traitant des mesures dans les
résultats des scanners lasers) propose régulièrement ses atouts pour l’architecture d’extérieur.
Parution : septembre 2018
D
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
63
RAD 7 420 – 1
Référence Internet
RAD7420
SCANNERS LASERS TERRESTRES ______________________________________________________________________________________________________
1
Très vite, les firmes actives dans le domaine de la topométrie envisagent son
potentiel pour des activités nouvelles (relevés d’ouvrages complexes, « tels que
construits », etc.) et surtout une concurrence pour les stations totales (tachéomètres motorisés avec des fonctionnalités de stockage et de calcul, l’outil
principal des géomaticiens à cette époque). Elles rachètent quelques développements ou créent des collaborations, par exemple :
– Leica Geosystems rachète Cyrax ;
– Trimble reprend Mensi ;
– Faro reste indépendant dans ses développements, au départ, plus orientés
industriels. Aujourd’hui, Trimble revend certains modèles sous son nom ;
– Zoller+Frölich a longtemps eu une forte collaboration avec Leica Geosystems.
Aujourd’hui, les développements matériels ont atteint une certaine maturité
en termes de vitesse et de précision. Les évolutions actuelles se concentrent
sur les algorithmes de filtrage et les possibilités d’assemblages automatisés
des nuages de points.
Il ne faut pas s’y tromper, obtenir un nuage 3D d’un environnement n’est que
le début du travail. Avec ce raster, plusieurs traitements sont envisageables :
– une utilisation directe du nuage de points 3D pour visualiser un environnement, faire des mesures ou y intégrer un projet. Ce nuage de points peut être
coloré selon différentes informations (la réflectance du laser, la couleur d’une
photo prise en parallèle du nuage de points…). Ce nuage permet également de
conserver un état des lieux à un instant précis ;
– après digitalisation des points caractéristiques du nuage, on obtient des
vecteurs 3D, voire des formes en 3D. Ce processus, encore très manuel,
permet d’alléger grandement le volume des données et de mettre en évidence
les éléments essentiels qui étaient l’objectif de l’acquisition ;
– la modélisation est la recherche de formes géométriques (meilleurs plans,
cylindres, sphères…) ou de surfaces composites (maillage ou « mesh ») dans
ce nuage. Cette transformation en éléments vectoriels « moyens » permet de
limiter l’impact du bruit des mesures pour obtenir des maquettes virtuelles,
base de très nombreux produits (modèle numérique de terrain, BIM…) ;
– l’évolution actuelle s’oriente régulièrement vers la détection et la
recherche dans le nuage d’objets définis dans une base de données. On peut
donner comme exemple la détection de tuyaux avec des diamètres définis et
des éléments (coudes, T) possédant des dimensions fixes. De très nombreux
développements vont actuellement dans ce sens.
1. Types de mesures
Laser
Même s’il existe de très nombreux modèles de scanners lasers
terrestres, la base du fonctionnement reste le même pour tous :
Angle principal
– un moteur permet une rotation maîtrisée autour de l’axe principal (généralement presque vertical) de l’instrument ;
– en parallèle, un système de miroirs ou de prismes réalise une
rotation autour d’un axe perpendiculaire au premier ;
– une pompe à laser émet un rayon qui va, suivant différentes
techniques fournir une information de distance ;
– on stockera également l’intensité du signal retour.
Angle secondaire
Axe secondaire
Cercle principal
Il est possible de déterminer la position tridimensionnelle de
l’impact du rayon émis dans un référentiel local à la position du
scanner avec les informations polaires présentées à la figure 1 :
Cercle secondaire
Axe principal
– un angle dans un plan perpendiculaire à l’axe principal, soit
dans le plan xy local (appelé par la suite angle principal) ;
– un angle normal au 1er (plan z) (appelé par la suite angle
secondaire) ;
– une distance dans l’espace ;
– une information sur l’intensité du signal retour.
RAD 7 420 – 2
Projection de l’axe
principal sur
le cercle
Figure 1 – Définition géométrique d’un scanner laser terrestre
La cadence de mesures oscille entre 50 000 et 1 million de points
par secondes. Ces valeurs impressionnantes ont longtemps été un
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
64
Référence Internet
RAD7420
______________________________________________________________________________________________________ SCANNERS LASERS TERRESTRES
argument marketing. Aujourd’hui, le développement ne se concentre
plus sur la vitesse, mais sur le traitement des signaux retours pour
minimiser le bruit et filtrer les points de mauvaise qualité.
position dans l’espace et dont l’origine se trouve à l’intersection
des axes principal et secondaire. C’est à partir de ce point qu’est
déterminée la distance spatiale.
Même si les observations sont des valeurs polaires, la transformation, pour chaque pixel, en coordonnées tridimensionnelles est généralement réalisée à la volée, directement au sein
du capteur. Le résultat minimal visible par l’opérateur est un
nuage de points avec pour chaque impact, des coordonnées
locales xyz et une valeur d’intensité du signal retour selon le
calcul de la figure 2.
Cependant, l’utilisateur reçoit souvent des valeurs transformées.
Les mesures brutes sont corrigées :
Cette dernière valeur d’intensité du signal retour peut prendre
différentes formes (pourcentage, valeurs entre des bornes
variables…). Elle permet généralement de fournir la première vue
colorée du résultat soit en variations RVB (rouge vert bleu), soit en
niveaux de gris, comme présentée à la figure 3.
– des éventuelles imperfections de constructions (axes pas exactement orthogonaux, le système de mesure de distance est décalé,
d’où l’ajout d’une constante, voire d’autres corrections géométriques) ;
– de la prise en compte de l’environnement (température interne
de l’instrument, conditions atmosphériques pour la détermination
de l’indice de réfraction de l’air) afin de déterminer correctement la
distance.
1.1 Référence interne
1.2 Référence à la verticale
Le capteur dispose d’une origine arbitraire pour l’angle principal. L’angle secondaire fournit une valeur entre de l’axe principal
et l’orientation du miroir ou du prisme. De cette manière, l’instrument dispose d’un système de coordonnées fixe par rapport à sa
Dans de nombreuses applications, spécialement pour des relevés architecturaux ou d’extérieur, il est nécessaire de se référer à
la verticale du lieu. Pour répondre à ce besoin, les constructeurs
ont intégré un inclinomètre. Suivant les modèles, le fonctionnement peut varier :
– soit, au début ou à la fin de son processus de mesures, le laser
scanner va déterminer l’écart entre la verticalité du lieu et l’axe
principal de l’instrument et l’orientation de cette inclinaison par
rapport à son référentiel d’angle principal. Très souvent, ce processus se traduit par une lente rotation de l’instrument sur lui-même.
Lors des assemblages, ces mesures pourront être prises en
compte pour aider à définir la matrice de rotation 3D pour le/les
nuage(s) lié(s) à cette station ;
– pour d’autres instruments, la technique est plus proche de celle
que l’on retrouve sur les stations totales. Pour chaque pixel mesuré,
le système va tenir compte de l’inclinaison longitudinale et transversale de l’instrument. Il applique ces corrections directement aux
mesures d’angles selon les formules de la figure 4.
z
d’
ζ
φ
x
y
x = d’ × cos(ζ) × cos(φ)
y = d’ × cos(ζ) × sin(φ)
z = d’ × sin(ζ)
1.3 Prise de photos
Très souvent, le relevé lasergrammétrique sera complété par la
prise de photos depuis le même point de vue. La caméra peut être
intégrée à l’instrument ou placée comme accessoires (figure 5).
d’ : distance mesurée entre la source laser et le point sur l’objet
Φ, ζ : les angles dans 2 plans orthogonaux du rayon laser
Intensité du signal retour
Par calibration, il est possible de colorer chaque pixel mesuré
en 3D par une valeur RVB reprise des images. Cela offre des
nuages de points très réaliste et permet une reconnaissance parfois plus aisée des objets numérisés comme le montre l’exemple
de la figure 6.
Figure 2 – Les mesures brutes
Figure 3 – Intensité du signal retour en RVB ou niveaux de gris
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
65
RAD 7 420 – 3
1
Référence Internet
RAD7420
SCANNERS LASERS TERRESTRES ______________________________________________________________________________________________________
2. Quelques considérations
sur les lasers
Axe principal vertical
Lors de l’achat d’un scanner laser, les critères et les spécifications techniques sont importants pour que le choix de l’instrument soit adapté aux spécifications des mandats à réaliser.
1
2.1 Classification des scanners lasers
inclL
Généralement, une classification historique répartissait les instruments selon leur technique de mesures des distances. Pour les
relevés d’ouvrages, de bâtiments ou en extérieur, il existe deux
grandes familles :
inclT
Axe principal avoir
– le temps de vol ;
– la mesure par déphasage.
inclt
)
tan (ζ + incll)
inclt
y = d’ × cos(ζ + incll) × sin(φ +
)
tan (ζ + incll)
2.1.1 Le temps de vol
x = d’ × cos(ζ + incll) × cos(φ +
Schématiquement, la technique du temps de vol (TOF pour
times of flight, figure 7) détermine la distance en s’appuyant sur
le temps nécessaire à une impulsion pour parcourir le trajet allerretour entre l’instrument et l’objet réfléchissant.
z = d’ × sin(ζ + incll)
Ce principe de mesures de distance est également utilisé dans
les lidars aéroportés, ce qui fait que l’on retrouve quelques problèmes identiques dans les données brutes de ces relevés aériens
(divergence des faisceaux, multi-échos). Par contre, toute la
chaîne de traitements et de géoréférencement est différente.
Figure 4 – Corrections du défaut de verticalité aux mesures brutes
2.1.2 La mesure par déphasage
Une autre méthode pour déterminer la distance 3D entre l’instrument et l’impact est basée sur la mesure du déphasage d’une
onde modulée en amplitude. On parle de scanner à différence de
phase (phase shift method, figure 8).
2.1.3 Ressemblances et différences entre les deux
systèmes de mesure de distances
Si, durant les premières décennies d’utilisation des scanners
lasers terrestres, ces deux techniques de mesure présentaient de
nombreuses différences :
Le Leica P40 est équipé avec une caméra (4 mégapixels) qui
permet de générer une image 360°, tandis que le Riegl VZ 1000 est
équipé d’un appareil réflex et d’un grand angle afin de couvrir le
même champ de vision que l’acquisition lasergrammétrique.
– une grande portée, pour une précision plus faible et une
vitesse d’acquisition réduite pour la technique du temps de vol ;
– une finesse du spot laser, une précision presque millimétrique
et une vitesse d’acquisition de près d’un million de points par
Figure 5 – Leica P40 et Riegl VZ1000 (sources : Leica Geosystems et Riegl)
Les parties noires sont les secteurs du ciel où aucun point n’a été mesuré.
Figure 6 – Coloration d’un nuage de points acquis avec le Riegl VZ1000 avec les images du réflex
RAD 7 420 – 4
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
66
Référence Internet
IN215
INNOVATION
Lidar : technique de détection
au service de l’archéologie
1
par Murielle GEORGES-LEROY
Conservatrice régionale de l’archéologie de Lorraine
UMR 6249 Chrono-Environnement, LEA ModeLTER – MSHE Ledoux, France
Laure NUNINGER
Chargée de recherche CNRS
UMR 6249 Chrono-Environnement, LEA ModeLTER – MSHE Ledoux, France
et Rachel OPITZ
Chercheur
CAST – University of Arkansas, LEA ModeLTER – MSHE Ledoux, France
Résumé : Technique de télédétection laser, le lidar est utilisé en archéologie pour
détecter, cartographier les sites et analyser les paysages anciens. Cet article s’adresse
aux archéologues et aux géomaticiens chargés de monter un projet ou de traiter et
analyser des données lidar. Il présente tout le processus, de l’acquisition à l’interprétation des données, avec un focus sur les étapes pouvant influencer la qualité des
résultats et une approche centrée sur l’étude des milieux forestiers pour la recherche et
la protection du patrimoine.
Abstract : Lidar, a remote sensing technique, is used by archaeologists to detect
and map sites and analyze past landscapes. This paper is addressed to archaeologists
and remote sensing specialists processing or analyzing lidar data, or using it within an
archaeological research or heritage management project. This article presents the
entire process, from acquisition to data interpretation, with a focus on the steps that
influence the quality of results. The case studies presented focus on applications in
forested environments.
Mots-clés : laser aéroporté, archéologie, forêt, modèle numérique de terrain
Parution : août 2014 - Dernière validation : août 2021
Keywords : lidar, archaeology, forest, digital terrain model
Points clés
Domaine : Traitement des données altimétriques, prospection archéologique,
analyse topographique et microtopographique
Degré de diffusion de la technologie : Émergence | Croissance | Maturité
Technologies impliquées : Lidar, laser aéroporté
Domaines d’application : Archéologie, environnement, géographie, études du
paysage
Principaux acteurs français :
Pôles de compétitivité : Optitec, Route des Lasers, Aerospace Valley
Centres de compétence : GeoSud, Réseau ISA
Industriels : Optech, Riegl, Leica
Autres acteurs dans le monde : VISTA (University of Birmingham,
Royaume-Uni), LBI ArchPro (Ludwig Boltzmann Gesellschaft, Vienne, Autriche),
CAST (University of Arkansas, USA)
Contact : [email protected][email protected][email protected]
8 - 2014
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
67
IN 215 - 1
Référence Internet
IN215
INNOVATION
méthodes de prospection utilisées sont variées et peuvent être
réalisées au sol ou avec un vecteur aérien. Les plus classiques
sont les prospections pédestres à vue qui consistent à
repérer des épandages de matériaux et d’objets dans les
labours ou des microreliefs dans les prairies ou les forêts. Le
recours à des moyens mécaniques est surtout utilisé en
archéologie préventive pour ouvrir des sondages régulièrement espacés, afin d’évaluer le potentiel archéologique d’un
terrain destiné à être aménagé. D’autres méthodes peuvent
être utilisées comme les prospections géophysiques permettant d’explorer le sous-sol (prospections électrique, électromagnétique ou radar) ou la télédétection (imagerie
aérienne et satellitaire, données radar ou lidar).
1. Contexte
1
Le lidar, acronyme de l’expression anglo-américaine light
detection and ranging (détection et télémétrie par la lumière),
est une technique de télédétection active à impulsion laser utilisée dans le domaine atmosphérique et terrestre. Au niveau
terrestre, il sert en particulier à réaliser des levés topographiques en trois dimensions de surfaces naturelles ou construites. Il permet d’obtenir une description précise de ces surfaces
sous la forme d’un nuage de points géoréférencés. Il existe
deux modes d’acquisition principaux :
– soit par une station terrestre (TLS – terrestrial laser
scanning) ;
La télédétection permet de collecter et d’analyser des
informations sur des objets sans qu’il y ait un contact direct
entre l’objet et l’instrument utilisé pour enregistrer et mesurer. En général, on parle de « télédétection » pour l’ensemble
des outils et techniques mis en œuvre pour étudier la surface
du globe terrestre, comme les satellites, les prises de vue
aériennes... L’avantage de la télédétection pour l’archéologue
est qu’elle permet de prospecter de larges espaces très rapidement et qu’elle lui offre un accès direct à des terrains parfois éloignés et complexes à parcourir, comme les déserts ou
plus récemment les massifs forestiers. Au-delà de la
photo-interprétation, la télédétection permet de produire de
nouveaux indicateurs à partir de traitements uniformes. Ces
traitements ouvrent des perspectives en matière d’enregistrement systématique des données, laissant une place moins
importante à la subjectivité et à l’intérêt propre des experts.
Un autre avantage de la télédétection pour l’archéologue est
sa capacité à fournir de l’information altimétrique permettant
de produire des modèles numériques de terrain d’une résolution nettement supérieure à ceux fournis par l’IGN en France,
par exemple.
– soit par un système aéroporté appelé « ALS » (airborne
laser scanning ) ou scanner laser aéroporté.
Ce sont les systèmes aéroportés qui retiendront notre attention dans cet article pour des applications topographiques.
Ces applications couvrent des domaines variés : géologie,
sismologie, travaux publics, surveillance des risques naturels,
mais aussi archéologie, où le lidar est utilisé pour la détection,
la cartographie de sites et l’analyse des paysages anciens.
Cet article traitera en particulier de l’utilisation du lidar
aéroporté en archéologie, il sera principalement centré sur
l’étude du milieu forestier, pour lequel la technologie lidar
est particulièrement performante, et pour différents types de
projets en recherche et dans le domaine de la protection du
patrimoine.
2. Prospection archéologique
et télédétection
Il existe deux grands modes de télédétection :
Pour l’archéologue, l’inventaire des sites archéologiques est
une mission fondamentale. Le terme de « site archéologique »
est ici employé dans un sens très large. Il couvre toutes les
formes d’occupation du sol qui se traduisent par la présence
de vestiges matériels dans un espace plus ou moins construit
par l’homme. Il peut s’agir d’habitat mais aussi d’infrastructure viaire (route, chemin...), agro-pastorale (champ, enclos,
terrasse, fossé...), économique (four à chaux, charbonnière,
minière, carrière...), militaire (tranchée, batterie, fortification...) ou territoriale (frontière matérialisée par un fossé par
exemple). Les sites archéologiques sont en grande partie totalement ou partiellement enfouis et nombreux sont ceux qui
restent encore inconnus. Pourtant, même dissimulés, ils font
partie intégrante de notre quotidien. Ce sont des éléments,
parfois encore actifs, contribuant à la configuration territoriale
et paysagère actuelle. Une bonne connaissance de ces sites
est donc nécessaire pour une meilleure compréhension de
l’espace dans lequel nous vivons afin d’aménager notre espace
en tirant parti de l’héritage garant de l’équilibre des milieux.
L’analyse archéologique des paysages offre en ce sens un
retour dans la très longue durée (plusieurs siècles, voire millénaires) des effets de l’anthropisation. Il est donc important
d’assurer l’inventaire de ces sites pour améliorer leur gestion patrimoniale et constituer les bases nécessaires aux travaux de recherche scientifique.
– l’une avec des capteurs dits « passifs » qui utilisent l’énergie radiative de la terre et de l’atmosphère et permettent la
production d’images dont on peut dériver de l’information altimétrique par photogrammétrie ;
– l’autre avec des capteurs dits « actifs », c’est-à-dire qui
émettent leur propre signal et en analysent le retour, comme
les radars ou les lidars.
Le lidar est donc un capteur-émetteur qui a l’avantage
de fournir directement de l’information altimétrique pour
réaliser des levés topographiques très précis sur de grandes surfaces.
En archéologie, les lidars aéroportés sont utilisés à cette fin
depuis le début des années 2000. Leur usage s’est particulièrement développé en milieu forestier à partir des années
2005-2006 en révolutionnant la prospection dans ce type de
milieu. Une des caractéristiques du lidar est sa capacité à pénétrer le couvert végétal et à enregistrer une information qui permet de l’effacer virtuellement. Grâce à des densités de points
élevées, les MNT obtenus par lidar ont des résolutions décimétriques à métriques avec une précision altimétrique centimétrique qui permettent de visualiser des microreliefs très peu
marqués. Or les forêts recèlent de nombreux vestiges archéolo-
De nombreux moyens sont mis en œuvre par les archéologues pour faire progresser cet inventaire archéologique : études de documents anciens, fouilles, prospections... Les
IN 215 - 2
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
68
8 - 2014
Référence Internet
IN215
INNOVATION
giques souvent conservés sous cette forme. La forêt a un caractère protecteur : les vestiges y sont en général beaucoup moins
érodés ou perturbés que dans les zones agricoles ou urbanisées. Pourtant, du fait des contraintes de repérage, les vestiges
conservés en forêt ne sont pas toujours étudiés par les archéologues. La visibilité au sol est souvent limitée par la présence de
végétation basse ou de feuilles et la cartographie des vestiges
avec des moyens classiques de topographie y est délicate. Il est
également difficile de repérer des vestiges enfouis avec les
méthodes de prospection géophysique utilisées en zone ouverte
(prairie ou labour) car les racines perturbent le signal électrique
ou magnétique enregistré par les capteurs fichés dans le sol.
Enfin, compte tenu de la végétation, la prospection aérienne ne
présente qu’un intérêt très limité et exceptionnellement utilisable pour étudier ce type de milieu. L’absence de sites dans
certains massifs forestiers est donc plus souvent le résultat d’un
manque de prospection archéologique que d’une absence
réelle. Le lidar permet de s’affranchir d’une partie de ces
contraintes en facilitant le repérage et la cartographie des vestiges archéologiques.
Aspects historiques
Si les premiers levés lasers aéroportés datent de 1970
notamment aux États-Unis et au Canada [1], la technologie des scanners lasers à balayage s’est développée plus
tardivement au milieu des années 1990, en particulier
pour des applications visant à modéliser de manière fine
le relief sous le couvert forestier [2] [3] [4] [5]. Son intérêt pour l’archéologie a été reconnu en 2000 lors de deux
colloques sur l’archéologie aérienne tenus à Aberdeen
(Écosse) et à Leszno (Pologne). Les premières utilisations
ont été effectuées en Grande-Bretagne sur des données
acquises pour un autre usage par l’Agence de l’environnement. Puis, dès 2001, un premier vol spécifiquement
archéologique a été réalisé dans le cadre d’une étude sur
l’environnement historique de l’emblématique site de
Stonehenge [6]. Au départ, la technique a été éprouvée
en milieu ouvert sans classification de points, avant d’être
généralisée au milieu forestier vers 2003-2004, avec l’utilisation de filtres permettant d’éliminer les points ayant
touché la végétation ou des bâtiments. C’est ainsi que les
données lidar acquises par le service du cadastre de la
région du Bade-Wurtemberg en Allemagne ont permis la
détection de champs bombés du Moyen Âge [7]. C’est
également à cette période que la technologie fait un nouveau bond avec le premier capteur opérationnel à retour
d’onde complète qui enregistre la totalité du signal. Utilisé
dès 2006 par une équipe archéologique autrichienne sur
la forêt de la montagne de Leitha [8], son usage reste
encore peu développé en archéologie.
À partir des années 2005-2006, l’utilisation du lidar en
archéologie s’est largement développée, d’abord en
Europe puis sur les autres continents. En France, le premier vol date de 2004 et durant l’hiver 2006-2007 une
dizaine de projets ont couvert des zones de plusieurs
dizaines de km2, principalement dans la moitié nord de la
France. Menés dans le cadre de programmes de recherche
archéologiques ou mixtes (archéologique et forestier
notamment), certains ont été exploités à des fins de
gestion patrimoniale des sites. Un levé lidar a ainsi été
utilisé dès 2008 en archéologie préventive dans le cadre
de la construction de la seconde phase de la ligne ferroviaire à grande vitesse Paris-Strasbourg [9]. Au contraire
de leurs collègues européens ayant bénéficié des données
acquises dans de gros programmes institutionnels, les
archéologues français ont été initiateurs de la plupart des
programmes d’acquisition, même si des projets institutionnels commencent à voir le jour (en Moselle par exemple en 2011-2012). Ce retard leur confère néanmoins une
certaine avance, avec le développement d’une expertise
assez spécifique intégrant l’ensemble des traitements et
analyses dans une chaîne opératoire complète des données brutes au terrain.
Néanmoins, si la technique s’avère très performante pour
les forêts de feuillus, elle est nettement plus complexe pour
les forêts de conifères ou les formations méditerranéennes de
type lande, garrigue ou maquis. Dans ces milieux, la végétation est trop dense pour laisser passer la lumière et, dans le
second cas, la végétation basse se confond avec les microreliefs. Ce sont en outre des zones difficiles d’accès pour lesquelles les prospections pédestres sont difficiles voire
totalement inopérantes en raison de cette végétation basse
très dense. Seuls les évènements exceptionnels d’incendie
permettent de les aborder de cette manière.
L’apport du lidar n’est toutefois pas restreint au milieu
forestier. Les zones de prairies, par exemple, peuvent également receler des vestiges sous forme de microreliefs. Elles
ont été beaucoup étudiées par prospection aérienne et prospection pédestre, mais le lidar reste un outil complémentaire
utile, notamment par sa capacité à couvrir de très grandes
surfaces et à fournir des données de qualité décimétrique
permettant une cartographie très fine, en particulier des vestiges paléogéographiques (anciens chenaux, méandres...) et
des traces agraires (limites parcellaires, crêtes de labour...).
En milieu cultivé où prospections pédestre et aérienne sont
très opérantes, les microreliefs sont bien moins conservés du
fait des labours répétés et les données lidar y sont donc plus
complexes à traiter. Leur apport est plus limité, mais toujours utile, pour repérer les voies et les limites parcellaires
très aplanies et difficilement identifiables sur le terrain à l’œil
nu.
Dans tous les cas, même si la technologie lidar est devenue
un outil majeur pour la recherche archéologique, il faut préciser que ce type de prospection ne remplace pas les méthodes
existantes, car d’une part elle ne rend compte que de ce qui
subsiste en sursol dans le relief actuel et d’autre part seule la
combinaison entre ces diverses méthodes de prospection et
d’autres analyses (étude des objets, des plans anciens...) permet de progresser dans l’interprétation des vestiges archéologiques (identification, datation). En ce sens, le lidar ne peut
remplacer la fouille qui, seule, permet une exploration
détaillée des vestiges enfouis et sur laquelle est fondée la
construction des référentiels nécessaires à toute analyse de
structures et de mobiliers de surface.
8 - 2014
3. Télédétection lidar
Le lidar est une méthode de télédétection, fondée sur une
mesure de distance. Le principe de la technologie est de répéter les mesures de distance à un objet à l’aide d’un système à
impulsions laser, dont le faisceau lumineux est balayé à la
surface de la terre par un miroir oscillant. Le fait de pouvoir
répéter les mesures avec une fréquence très élevée permet
d’obtenir une description précise du sol ou des objets en sursol (végétation, bâtiments) sous la forme d’un « nuage de
points » renseigné par des coordonnées x, y et z, si on connaît
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
69
IN 215 - 3
1
Référence Internet
IN215
INNOVATION
1
z GPS
UMI : unité de mesure
inertielle (enregistre le
tangage, le roulis et la
position de la plate-forme)
faisceau laser
x
y
Unité de
localisation
précise de la
position du
capteur
UMI
Appareil lidar qui émet des
impulsions infrarouges lasers
par balayage grâce à un
miroir oscillant selon un
angle défini par l’opérateur
jusqu’à environ 30°
v
Station de base GPS
v
Figure 1 – Principe du lidar aéroporté (d’après Z. Kokalj et K. O s tir)
par ailleurs la position exacte de la source émettrice. Ce
nuage de points fait ensuite l’objet d’une classification permettant de séparer les points ayant atteint le sol de ceux ayant
touché la végétation ou d’autres objets. Plusieurs modèles
numériques d’élévation (MNE) peuvent être élaborés à partir
de ces points, la résolution, altimétrique et planimétrique,
dépendant de la densité de points disponibles. Le plus utilisé
en archéologie est le modèle numérique de terrain (MNT)
construit à partir des points sol. Des traitements de visualisation en 2D ou 3D peuvent alors être appliqués à ces données
pour permettre la détection, l’interprétation, la cartographie et
l’analyse des données archéologiques.
Impulsion laser
3.1 Acquisition des données :
vol et prétraitements
3.1.1 Principes de fonctionnement
Les systèmes de lidar aéroporté sont composés d’une
plate-forme ou vecteur (avion, hélicoptère), d’un équipement
de géoréférencement et d’orientation (DGPS/centrale inertielle), du capteur-émetteur lui-même et des systèmes d’enregistrement de données (figure 1). L’appareillage lidar émet
des impulsions lumineuses (généralement dans le domaine du
proche infrarouge pour le lidar topographique) qui sont réfléchies par les surfaces (sol, végétation, bâtiments...) et sont
renvoyées vers un capteur qui calcule le temps de retour du
signal et son intensité. C’est ce temps de retour, connaissant
la vitesse de la lumière, qui permet de calculer la distance
entre le point d’impact et le capteur-émetteur. La position et
l’altitude précises de chaque point sont déduites du calcul de
la position du capteur-émetteur à chaque instant.
Pour positionner directement les données altimétriques enregistrées tout au long du vol, on utilise un système embarqué
composé d’un récepteur GNSS (Global Navigation Satellite System – système de positionnement global par satellites), de type
DGPS ou GLONASS, et d’une centrale inertielle (UMI, unité de
mesure inertielle) qui mesure l’accélération et la vitesse angulaire dans les trois directions, à une fréquence de 100 à 400 Hz.
Pour améliorer la précision des localisations, le dispositif embarqué est complété par une ou plusieurs stations GPS au sol (base
installée lors de l’acquisition ou station du réseau GPS permanent) permettant de réaliser des post-corrections.
IN 215 - 4
0
0
6
20
12
40
18
60
24
30
Temps (ns)
Distance (m)
Seuillage
Écho 1
Écho 2
80
Écho 3
100
36
120
42
140
Écho 4
Écho 5
Onde complète
Figure 2 – Comparaison des enregistrements de type multi-écho
et à retour d’onde complète
3.1.2 Capteurs et différents modes d’enregistrement
Comme un rayon lumineux peut se diviser en plusieurs
parties et toucher différents éléments de la surface (végétation au niveau des branches, des troncs...) avant d’atteindre
le sol, les capteurs enregistrent plusieurs retours. Différents
capteurs lidar sont disponibles pour une utilisation topographique (figure 2). Les systèmes d’enregistrement discret
(multi-écho) enregistrent uniquement les pics de retours
maximaux, correspondant aux différents éléments de la surface. Les systèmes d’enregistrement continu (retour d’onde
complète ou full-waveform ) enregistrent la totalité du signal
retour de chaque faisceau laser.
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
70
8 - 2014
Référence Internet
IN215
INNOVATION
§ Les systèmes à retour discret sont actuellement les plus
utilisés dans les projets archéologiques. Ils émettent des
impulsions lasers et enregistrent seulement les pics d’intensité
de l’onde rétrodiffusée. Le nombre d’échos mesurés varie
selon les systèmes utilisés, de deux à six retours par impulsion envoyée, et les modes de calcul des pics sont également
variés [10] [11]. Depuis 2006, les systèmes à « impulsions
multiples dans l’air » (MPiA – Multiple Pulses in Air
Technology ), en envoyant une nouvelle impulsion avant le
retour de la précédente, sont capables de collecter plus de
points dans un même vol que les systèmes à simple impulsion. Ils sont par conséquent plus utilisés pour les projets couvrant des surfaces importantes.
1
Angle de balayage
Hauteur de vol
§ Utilisés plus rarement en archéologie, les systèmes
d’enregistrement continu permettent d’extraire des échos
dont on connaît la largeur et l’amplitude, ce qui a l’avantage
d’augmenter le nombre de points identifiés et d’évaluer la
précision de la mesure. Le traitement de l’onde complète offre
notamment la possibilité de mieux distinguer la végétation
basse du terrain stricto sensu, ce qui ouvre des perspectives
intéressantes dans les milieux couverts de broussailles et dans
les formations forestières étagées de type méditerranéen.
Cependant, cette technique demande une expertise spécifique
dans le traitement du signal et nécessite un investissement
élevé en termes de temps pour obtenir des résultats pertinents. Si ce n’était pas la meilleure option jusqu’à présent
pour l’archéologie, l’évolution rapide des méthodes de traitement rend toutefois ce système plus abordable sur le plan
technique et parfois sans surcoût financier.
3.1.3 Principaux paramètres techniques et de vol
Taches du sol
Le premier élément à définir est la densité de points selon
les applications envisagées. Elle peut varier de 0,1 pt/m2 à
5 pts/m2 pour des MNT standard, de 2 pts/m2 à 30 pts/m2 ou
plus pour les vols spécifiquement opérés pour des applications
archéologiques.
Lar
geu
Certains paramètres de base du système lidar ont un impact
direct sur la densité de points collectés, ainsi que sur la
précision des mesures. On mentionnera ci-dessous les plus
importants (figure 3).
ban
de
Figure 3 – Principaux paramètres de vol
§ La plupart des systèmes lidar offrent un angle de balayage
(ou de scannage) de 60o (ou un demi-angle de ± 30o). De
grands angles de balayage augmentent la taille et déforment
l’empreinte au sol en bordure de bande. Ils dégradent ainsi la
précision de la mesure quand ils ne sont pas source d’erreur.
Dans les zones boisées, plus l’angle est grand, plus le rayon
lumineux risque d’être intercepté par des troncs ou d’autres
objets sans atteindre le sol. Pour un couvert végétal très
dense, un angle de balayage étroit, inférieur à 30o voire 40o,
est donc recommandé.
§ La fréquence des impulsions, ou le taux de répétition des
impulsions, est le nombre d’impulsions émises par le scanner
laser par seconde. Les systèmes actuels supportent des fréquences allant jusqu’à 500 kHz pour les systèmes à retour
discret et 120 kHz pour les systèmes à retour d’onde
complète, mais ils peuvent être exploités à des fréquences
inférieures. La densité finale du nuage de points, par
conséquent la résolution du MNT, est directement liée à la fréquence des impulsions. Mais la fréquence du système ne préjuge pas de la fréquence de la mesure également dépendante
du type et surtout de l’angle de balayage.
§ La largeur de la bande de vol est dépendante de l’angle
de balayage et de la hauteur de vol. Plus ces deux paramètres seront importants, plus la bande permettant de couvrir
une grande surface rapidement sera large. Toutefois, à fréquence d’impulsion et angle de divergence équivalents, ce
gain en temps de vol va limiter le nombre de retours à partir
du sol sous couvert forestier, donc diminuer la densité de
points et altérer la précision de la mesure.
§ Le diamètre au sol de la tache (ou de l’empreinte)
lumineuse varie en fonction de la hauteur de vol et de l’angle
de divergence du laser. Il faut noter que plus la divergence
est faible, plus l’énergie émise est concentrée sur une petite
surface. Mais pour un même angle de divergence, l’empreinte
au sol est d’autant plus grande que la hauteur de vol est élevée. Par exemple à une hauteur de vol de 1 000 m, les lasers
utilisés en topographie ont des diamètres au sol de 20 à
25 cm. Une grande tache entraîne une précision moindre, car
le rapport signal sur bruit est diminué et il devient plus difficile
d’identifier les pics, mais aussi parce qu’une impulsion unique
touche plus d’objets différents ou de variations de terrain. La
taille de la tache peut ainsi affecter la précision horizontale et
verticale de la mesure.
8 - 2014
rd
e
Pour plus de
l’article [E 4 312].
précision
sur
ces
paramètres,
voir
3.1.4 Plates-formes ou vecteurs
Les systèmes lidar peuvent être embarqués sur plusieurs
types de vecteurs (avion, hélicoptère ou drone), selon les
exigences du projet. Certains vecteurs sont capables
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
71
IN 215 - 5
Référence Internet
IN215
INNOVATION
1
d’embarquer d’autres capteurs pour collecter simultanément
des images multi- ou hyper-spectrales directement comparables aux données altimétriques, ce qui favorise leur traitement et l’interprétation des objets.
erreurs verticales. In fine, la transformation des points dans
un système de coordonnées locales est aussi une source
d’erreur.
Les erreurs les plus importantes sont généralement localisées sur les bords des bandes de vol, où les problèmes d’alignement sont les plus apparents. Ces erreurs peuvent être
verticales ou planimétriques et, même si les deux sont liées,
elles sont généralement quantifiées séparément. L’erreur
absolue de précision verticale courante dans les levés lidar
topographiques est de 10 à 20 cm, tandis que l’erreur horizontale est de 20 à 30 cm, mais avec un vol héliporté à basse
altitude (moins de 100 m) et une forte densité de points
(environ 80) il est possible d’atteindre une précision absolue
altimétrique de 3 à 4 cm [15]. Toutefois, pour l’archéologue,
la précision relative est plus importante que la précision absolue dans la détection des microreliefs et, bien qu’elle dépende
du système lidar, elle peut être estimée à ± 5 cm pour une
acquisition aéroportée standard.
Chaque vecteur présente des caractéristiques pouvant avoir
un fort impact sur les données collectées : densité de points,
temps d’enquête nécessaire, taux de pénétration à travers la
végétation et précision. Ainsi, les avions sont les plus appropriés pour couvrir de grandes surfaces, mais à des densités de
points faibles ou moyennes. L’hélicoptère permet d’obtenir
une densité de points plus élevée parce qu’il peut voler plus
lentement et plus près du sol, mais il couvre une plus petite
surface lors de chaque vol. Il est notamment utilisé pour la
cartographie de corridors et, en archéologie, pour la cartographie de petites zones à des densités de points plus élevées.
En outre, c’est le vecteur indispensable pour les visées obliques (falaises, surplombs...) [12]. L’utilisation de drones,
plus flexibles à mettre en œuvre, n’en est qu’à un stade expérimental, mais ce vecteur est tout à fait approprié pour de
toutes petites zones nécessitant une forte densité de points et
plus de précision dans la mesure, qui demeure toutefois
dépendante du type de capteur utilisé.
3.2 Classification et création de modèles
numériques d’élévation (MNE)
3.1.5 Prétraitements
Le nuage de points bruts regroupe indifféremment les points
provenant du sol, de la végétation, du bâti ou d’autres objets
en sursol. Ces points bruts doivent donc être classés (ou filtrés) pour séparer les points ayant touché le sol de ceux ayant
atteint la végétation ou le bâti, ce qui permet la création de
modèles de la surface terrestre (MNE, MNT, MNS). Les MNE ne
sont pas de vraies modélisations 3D, mais des modélisations
en « 2D et demie », car ils restituent une surface mais pas un
volume.
3.1.5.1
Post-corrections, ajustement et contrôle
qualité
Pour garantir la qualité des mesures d’altimétrie, une série
de prétraitements, réalisés par le fournisseur des données, est
nécessaire :
– trajectographie : il s’agit du calcul de la trajectoire du
capteur (c’est-à-dire de la position précise de l’avion pour chaque enregistrement) immédiatement après le vol. On calcule
d’abord la trajectoire GPS en mode différentiel (avec les données des stations GPS au sol), puis on la combine avec les
données de la centrale inertielle pour prendre en compte les
mouvements de l’aéronef (roulis, tangage et lacet) ;
– génération du semis de points bruts, en s’appuyant sur la
trajectoire de l’avion, l’angle de balayage, la distance et les
paramètres de calibration du scanner laser ;
– ajustement des bandes de vol et calcul des semis de
points géométriquement corrects ;
– contrôle de la qualité horizontale et verticale (calcul des
erreurs résiduelles – RMS), à l’aide des zones de recouvrement des bandes et des surfaces de référence acquises
préalablement par un relevé de terrain.
Le terme de « MNE » regroupe de manière générique différents modèles de représentation topographique, les plus courants étant (figure 4) :
– le modèle numérique de surface (MNS) qui représente
la surface terrestre avec les éléments permanents du sursol
(bâtiments, végétation). Il est construit avec les premiers
échos renvoyés ;
– le modèle numérique de terrain (MNT) qui reproduit le
terrain nu (sol) et est construit avec les points ayant touché le
sol. Il peut cependant inclure un certain nombre d’objets
anthropiques, en particulier des digues et des remblais (routes, voies ferrées), mais aussi des vestiges archéologiques
conservés sous forme de microrelief.
3.1.5.2 Marges d’erreurs
La marge d’erreur est le résultat cumulé de toutes les
erreurs enregistrées par chaque sous-système, à savoir le
scanner laser, le GPS et la centrale inertielle [E 4 312] [13]
[14].
3.2.1 Classification (ou filtrage) des données
L’étape de filtrage des données est complexe car le dernier
écho enregistré ne provient pas forcément du sol. Cette étape
a un fort impact sur ce qui pourra être tiré des données pour
l’analyse et présente un risque de suppression d’informations
importantes. Elle est souvent réalisée par le fournisseur de
données, car elle nécessite des compétences spécifiques, du
matériel et des logiciels adaptés. Néanmoins, il est vivement
recommandé aux chargés de projets de suivre le traitement et
de le valider, afin de l’adapter aux problématiques archéologiques étudiées. En outre, avec l’évolution rapide des techniques, c’est une opération qui devient accessible sur des
superficies de quelques km2 et qu’il est important de pouvoir
mettre en œuvre pour reprendre les classifications dans des
zones d’intérêt particulier. Nous attirons ainsi l’attention sur
le fait qu’il est absolument nécessaire de demander
les nuages de points bruts pour toutes opérations
d’acquisition.
Ces erreurs peuvent être aléatoires, systématiques ou
dépendantes du terrain. La principale source d’erreur aléatoire, qui produit du bruit dans le nuage de points obtenu, est
liée au positionnement exact de l’avion : erreurs dues au GPS,
à l’UMI et au système de balayage, problème de synchronisation entre ces trois éléments, conditions de turbulence.
Les erreurs systématiques sont associées au scanner laser
(erreurs de mesure de la distance, mauvais alignement de
l’axe de visée, décalage du système de balayage et de l’angle
du miroir) ou au système GPS/UMI (initialisation de l’UMI,
erreurs d’alignement entre GPS et UMI). Les erreurs dépendant du terrain sont introduites par l’interaction du faisceau
laser avec la surface terrestre (sol et sursol). Sur un terrain
en forte pente ou avec un angle de balayage élevé, la taille et
la déformation de l’empreinte laser au sol provoquent des
IN 215 - 6
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
72
8 - 2014
Géomatique
(Réf. Internet 42641)
2
1– Collecte et acquisition des données géographiques
2– Traitement informatique des données
géographiques
Réf. Internet
Systèmes d'information géographique : outil d'aide à la gestion territoriale
H7415
75
Systèmes d'information géographique : études de cas
H7416
79
Partage de données environnementales
P4250
85
Morphologie mathématique et traitement d'images
AF1515
91

page
Sur www.techniques-ingenieur.fr
• Saisissez la référence Internet pour accéder directement aux contenus en ligne
• Retrouvez la liste complète des ressources documentaires
73
2
74
Référence Internet
H7415
Systèmes d’information
géographique : outil d’aide
à la gestion territoriale
2
Pierre-Alain AYRAL
Docteur ès-Sciences
Enseignant-chercheur à IMT Mines Alès, France
Sophie SAUVAGNARGUES
Professeure
Enseignante-chercheure à IMT Mines Alès, France
Cet article est la version actualisée de l’article H7415 intitulé « Systèmes d’information
géographique : outil d’aide à la gestion territoriale » rédigé par Pierre-Alain AYRAL et
Sophie SAUVAGNARGUES en 2009.
1.
1.1
1.2
1.3
Des cartes papiers à la géomatique : définitions des SIG ...........
Bref historique.............................................................................................
Concept d’information géographique .......................................................
Définitions des SIG .....................................................................................
H 7 415v2 - 2
—
2
—
2
—
3
2.
2.1
2.2
2.3
Composantes des SIG ............................................................................
Personnel .....................................................................................................
Logiciels .......................................................................................................
Données .......................................................................................................
2.3.1 Données de type raster......................................................................
2.3.2 Données de type vecteur...................................................................
2.3.3 Bases de données géographiques....................................................
—
—
—
—
—
—
—
3
3
4
4
5
5
5
3.
3.1
3.2
3.3
3.4
3.5
Fonctionnalités des SIG.........................................................................
Acquisition de données ..............................................................................
Gestion et stockage des données ..............................................................
Analyse des données..................................................................................
Restitution des données .............................................................................
Synthèse ......................................................................................................
—
—
—
—
—
—
6
6
8
11
12
12
4.
Domaines d’application.........................................................................
—
12
5.
Conclusion et perspectives ..................................................................
—
13
6.
Glossaire ....................................................................................................
—
16
Pour en savoir plus .......................................................................................... Doc. H 7 415v2
n objet ou un événement localisé dans l’espace constitue, avec ses
données attributaires, une information géographique. L’objectif des
Systèmes d’lnformation Géographique (SIG) est de permettre la gestion de ce
type d’information. Les SIG doivent donc être capables de traiter le volet graphique de l’objet, mais également son contenu sémantique ce qui le rapproche
des Systèmes d’lnformation (SI).
Le champ de ces informations géographiques est très vaste. Il comporte à la
fois des objets localisables par nature (cours d’eau, routes, limites communales...) et d’autres (les plus nombreux) qui le sont par association. II est ainsi
possible de rattacher le débit d’un cours d’eau à une station de mesure ou des
Parution : mai 2021
U
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
75
H 7 415v2 – 1
Référence Internet
H7415
SYSTÈMES D’INFORMATION GÉOGRAPHIQUE : OUTIL D’AIDE À LA GESTION TERRITORIALE _______________________________________________________
2
clients à une région. De ce fait, les domaines d’application des SIG sont également très vastes et couvrent de nombreux domaines allant de l’aménagement
du territoire au géomarketing.
La représentation de cette information géographique est la cartographie, une
des premières tâches qu’il soit possible de réaliser avec un SIG. Cependant, il
est capital de noter qu’ils peuvent dépasser ce niveau d’analyse en permettant
d’étudier les relations spatiales entre des objets d’une même thématique
(compréhension de la structure des réseaux hydrographiques), mais également
entre des objets de thématiques différentes (relation entre la répartition de la
population et celle des centres hospitaliers par exemple). De ces analyses pourront découler des modèles et/ou des simulations qui conduiront à la production
d’information à destination du décideur. C’est donc ce niveau d’analyse qui fait
du SIG un outil d’aide à la décision territorial.
L’objectif de cet article est de proposer une introduction aux SIG qui permet
de revenir dans une première partie sur les concepts de cet outil, de détailler
dans un second temps ses composantes (matériel, logiciels, méthodes,
données et personnel). De manière à comprendre les usages qu’il est possible
de faire grâce aux SIG, les fonctionnalités des logiciels SIG sont développées
et les domaines d’applications sont présentés avec notamment une étude de
cas consacrée à l’enseignement en gestion de crise. Les perspectives des SIG
et de la géomatique (discipline traitant notamment des SIG), en pleine évolution, sont présentées en conclusion.
Le lecteur trouvera en fin d’article un glossaire des termes utilisés.
1. Des cartes papiers
à la géomatique :
définitions des SIG
1.2 Concept d'information géographique
Une information géographique représente tout objet pouvant
être repéré par sa localisation et ses caractéristiques.
Exemple
Un objet peut être un arbre, cet arbre peut être un chêne ou un
peuplier, il peut être haut, jeune ou vieux...
1.1 Bref historique
Afin de mieux évaluer ce que peut apporter un système d’information géographique, il convient de mettre en évidence les principaux inconvénients de la cartographie papier :
Une information géographique peut également être un événement localisé tel qu’une manifestation sportive ou encore un accident.
– d’un point de vue structurel, le support papier n’a pas une
stabilité dimensionnelle parfaite ;
– la quantité d’information que peut contenir une carte est
limitée, principalement pour des raisons de lisibilité ;
– une fois produite, la carte papier est un document figé, il peut
même arriver que des cartes soient périmées dès leur parution ;
– il est difficile d’extraire une information exacte, compte tenu
notamment du pouvoir de séparation de l’œil ;
– aucune analyse quantitative ne peut être conduite entre deux
cartes thématiques ;
– toute analyse spatiale à partir de plusieurs cartes est difficile,
voire impossible.
Deux caractéristiques liées au concept d’information géographique sont fondamentales :
– un point de l’espace peut comporter plusieurs objets superposés, le Rhône peut être considéré comme un fleuve, une limite
communale, une limite départementale et une limite régionale ;
– tous ces objets peuvent donner lieu à différents types de cartes
comprenant différentes représentations d’un même objet ou le
choix de différents objets à représenter parmi un ensemble.
Il existe toutefois des informations qui ne sont pas géographiquement localisées, mais qui peuvent le devenir par destination.
C’est le cas des données sur la population, des données sur les
cultures agricoles, ou bien encore sur l’environnement.
De fait, l’informatisation du dessin des cartes remonte aux
années 1960. L’objectif était de faciliter les besoins de correction et
de mise à jour, l’édition en grand nombre, à différentes échelles,
etc. La finalité restait pourtant de produire une carte papier.
Exemple
Il est nécessaire d’être vigilant avec ce type d’information. En effet,
elles doivent être rattachées impérativement à un attribut géographique pour une exploitation cartographique correcte. Une cartographie de la population de la France par département ne s’effectuera
pas en associant directement le nombre d’habitants par département.
Il sera nécessaire de rapporter cette population à la superficie du
département et donc de cartographier la densité de population par
département.
La cartographie numérique est ensuite devenue une application
de la branche Dessin Assisté par Ordinateur (DAO). De là est né le
concept d’information géographique. Les premiers SIG sont apparus au Canada (Canadian Geographic Information System) et aux
États-Unis (New York Land Use Information System et Minnesota
Land Management Information System) à la fin des années 1960.
H 7 415v2 – 2
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
76
Référence Internet
H7415
________________________________________________________ SYSTÈMES D’INFORMATION GÉOGRAPHIQUE : OUTIL D’AIDE À LA GESTION TERRITORIALE
Un SIG a pour fonction essentielle de gérer cette information
géographique. Toutefois, il représente un sous-ensemble de la
réalité de façon imparfaite :
À retenir
– Un système d’information géographique est défini comme
un ensemble d’outils permettant de stocker, de visualiser et
d’extraire de l’information géographique sur un territoire pour
un ensemble particulier d’objectifs.
– Une information géographique se définit par sa localisation
géographique (ses coordonnées) et ses données attributaires.
– Les premiers SIG sont apparus dans les années 1960
outre-atlantique.
– un sous-ensemble, parce que l’on ne peut pas tout représenter,
il faut choisir les objets géographiques pertinents en fonction
notamment de ses objectifs ;
– imparfait, car il est nécessaire de simplifier la réalité en fonction
notamment de l’échelle d’étude.
1.3 Définitions des SIG
À partir de l’analyse du concept d’information géographique, il
est possible de définir les grandes questions auxquelles un SIG se
doit de répondre :
2. Composantes des SIG
– Où ? Être capable d’identifier la position d’un objet ou d’un
groupe d’objets (répartition spatiale) ;
Le terme de système d’information géographique englobe plusieurs composantes, représentées sur la figure 1, nécessaires à sa
mise en œuvre : le matériel, le personnel (concepteurs/utilisateurs), le ou les logiciels déployés, les données et les méthodes.
Dans cette section, trois composantes seront plus particulièrement développées : le personnel, les logiciels et les données.
– Quoi ? Être capable de déterminer l’ensemble des objets présents sur une zone déterminée (inventaire, mise en évidence des
superpositions et des proximités) ;
– Comment ? Être capable de déterminer les relations entre les
objets et/ou les événements présents sur un espace géographique
(analyse spatiale) ;
– Quand ? Être capable d’analyser l’évolution d’un objet, d’un
groupe d’objets ou d’un événement (analyse temporelle) ;
À noter que le développement et l’utilisation des SIG, y compris
pour des applications utilisant des données à très hautes résolutions (imagerie spatiale par exemple) ne sont plus limités par les
capacités informatiques.
– Et si ? Être capable d’envisager des modifications dans la localisation des objets et/ou des phénomènes observés (simulation,
étude d’impact, étude de projets).
2.1 Personnel
Les définitions des SIG sont pléthores, pour les plus complètes
elles définissent les aspects techniques de l’outil et son volet
applicatif. Il est possible de présenter une des premières énoncées
par Burrough [1] dans son ouvrage fondateur paru en 1986.
Les SIG constituent une technologie synergétique et multidisciplinaire qui intègre des principes et des méthodes issues de plusieurs
disciplines traditionnelles. Le tableau 1 propose une synthèse de
ces disciplines.
La géomatique, mot formé par la double contraction de « géographie » et « informatique », se positionne comme la discipline traitant
des SIG. Le portail des GeoFormations (http://www.afigeo.asso.fr/
pole-formation-recherche/observatoire.html) a été mis à jour en 2017
par l’AFIGEO et GeoRezo (le portail francophone de la géomatique).
Il présente 123 formations diplômantes et certifiantes, depuis le
niveau baccalauréat jusqu’au doctorat.
Définition 1
Un SIG est un ensemble puissant d’outils pour rassembler,
stocker, extraire à volonté et visualiser des données spatiales
du monde réel pour un ensemble particulier d’objectifs.
Cette définition, outre sur les objectifs des SIG, insiste sur la pluralité des outils qui les composent. En effet, on a souvent tendance
à réduire les SIG aux seuls logiciels qui permettent de les
déployer.
Logiciels
D’autres définitions vont développer plus avant la spécification
du champ d’application, et l’objectif in fine d’aide à la décision. La
définition de Joliveau [2] illustre ce type de définition en l’appliquant aux territoires.
Méthodes
Matériel
Analyse spatiale
Analyse multicritères
Définition 2
Les SIG se définissent comme l’ensemble des structures, des
méthodes, des outils et des données constituées pour rendre
compte de phénomènes localisés dans un espace spécifique et
faciliter les décisions à prendre sur cet espace.
Hiérarchisation
Aide à la décision
Personnel
Il est possible de trouver d’autres dénominations qui restent
similaires aux SIG. Ces acronymes peuvent être relatifs au champ
d’application du SIG, comme par exemple SIT (Système d’Information du Territoire), BDU (Base de Données Urbaines) ou SIU
(Système d’Information Urbain), ou bien une dénomination spécifique comme les SIRS (Système d’Information à Référence Spatiale) plutôt employés au Québec.
Données
Figure 1 – Les composantes d'un SIG
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
77
H 7 415v2 – 3
2
Référence Internet
H7415
SYSTÈMES D’INFORMATION GÉOGRAPHIQUE : OUTIL D’AIDE À LA GESTION TERRITORIALE _______________________________________________________
Tableau 1 – Les disciplines des SIG
Discipline
2
Contributions
Géographie
Identification des classes de phénomènes, des processus, des modalités d’organisation spatiale et de méthodes
d’analyse spatiale.
Cartographie
Méthodes de représentation de l’espace géographique.
Télédétection
Techniques d’acquisition et de traitement de données obtenues avec des capteurs satellitaires et aéroportés.
Photogrammétrie
Techniques de mesure en trois dimensions permettant de déterminer les dimensions et les volumes des objets.
Arpentage
Données précises sur la position des éléments géométriques des parcelles de terrain, des bâtiments...
Géodésie
Méthodes de localisation de haute précision et portant sur de grandes étendues (dimensions et forme de la Terre).
Statistique
Méthodes d’analyse, de synthèse et d’interprétation des données.
Informatique
Conception assistée par ordinateur, infographie, SGBD, algorithmique, intelligence artificielle, génie logiciel.
Mathématique
Géométrie analytique, topologie, trigonométrie, théorie des graphes, algèbre, calcul différentiel et intégral.
Génie civil
Applications en transport, génie urbain.
Aménagement
Applications pour la gestion et le développement du territoire.
(représentation du monde réel), anticipation (prospective). Chaque
logiciel présente également ses propres spécificités.
La mise en place et l’usage d’un SIG requièrent l’utilisation éventuelle d’autres types de logiciels ou de modules complémentaires
externes, notamment pour des tâches spécifiques de gestion des
bases de données (Access®, Oracle®, POSTGIS...), d’analyses statistiques, de gestion des données graphiques (Autocad, autres
logiciels de DAO et/ou CAO) et de mises en forme des productions
cartographiques (logiciels de cartographie et/ou de dessin), etc.
2.2 Logiciels
Les solutions logicielles SIG sont nombreuses, et peuvent être
regroupées en 3 catégories : logiciels libres, logiciels propriétaires
et commerciaux, et logiciels propriétaires et gratuits. Si les logiciels
libres sont d’utilisation gratuite (avec la possibilité de contribuer
par des dons au développement du logiciel), certains logiciels propriétaires peuvent l’être également (Spring par exemple), même
s’ils sont généralement à vocation commerciale et donc payant.
Le tableau 2 présente une liste non exhaustive des principaux
logiciels SIG.
2.3 Données
Chaque logiciel dispose des fonctionnalités standards attendues d’un SIG : acquisition (saisie d’informations géographiques
sous forme numérique), archivage (gestion de bases de données),
analyse (manipulation et interrogation des données géographiques), affichage (visualisation et mise en forme), abstraction
Les données sont un des éléments essentiels composant un
SIG. Elles peuvent être acquises ou fabriquées, mais même si
elles sont gratuites [3], elles représentent malgré tout un coût lié à
leur construction.
Tableau 2 – Les principaux logiciels SIG
Nom
Statut
Diffusion
Spécificité
Arcgis
Propriétaire
Commerciale
Plateforme de cartographie et d’analyse : analyse spatiale, imagerie et télédétection,
cartographie et visualisation, temps réel, 3D, collecte et gestion de données.
https://www.esri.com/fr-fr/home
Géoconcept
Propriétaire
Commerciale
Gamme de composants d’optimisation géographique, technologie nomade disponible
en mode déconnecté.
https://fr.geoconcept.com/
Grass
Libre
Gratuite
Gestion et analyse des données géospatiales, traitement des images, production de
graphiques et de cartes, modélisation spatiale et visualisation.
https://grass.osgeo.org/#
Mapinfo
Propriétaire
Commerciale
Résolution des problèmes d’utilisation liés à la création de données spatiales,
à leur analyse, leur mise à disposition et leur gestion (à destination des entreprises
et des administrations).
https://www.pitneybowes.com/fr
QGIS
Libre
Gratuite
Projet officiel de la fondation Open Source Geospatial (OSGeo)
https://www.qgis.org/fr/site/
Spring
Propriétaire
Gratuite
Télédétection et système de traitement d’image avec un modèle de données orientées objet.
http://www.dpi.inpe.br/spring/francais/index.html
H 7 415v2 – 4
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
78
Référence Internet
H7416
Systèmes d’information
géographique : études de cas
par
Pierre-Alain AYRAL
Docteur ès sciences
Enseignant-chercheur à IMT Mines d’Alès,
Chercheur associé à l’UMR CNRS 7300 ESPACE
2
Sophie SAUVAGNARGUES
Professeure
Enseignante-chercheuse à IMT Mines Alès
Chercheuse associée à l’UMR CNRS 7300 ESPACE
Yannick FOGUE-DJOMBOU
Docteur ès sciences
Consultant
Billy POTTIER
Master 2 en Géomatique
Doctorant à IMT Mines Alès
Florian TENA-CHOLLET
Docteur ès sciences
Enseignant-chercheur à IMT Mines d’Alès
et
Vincent THIERION
Docteur ès sciences
Ingénieur de recherche, CESBIO, INRAE
Cet article est la version actualisée de l’article [H 7 416] intitulé « Systèmes d’information géographique : mise en œuvre » rédigé par Pierre-Alain AYRAL, Sophie SAUVAGNARGUES,
Florian TENA-CHOLLET et Vincent THIERION en 2010.
1.
Conception d’un SIG ..............................................................................
2.
Focus sur l’analyse multicritère..........................................................
—
3
3.
3.1
3.2
SIG orienté Web .......................................................................................
Plateforme web ...........................................................................................
Exemple de SIG orienté Web-Mapping et sciences participatives .........
—
—
—
8
8
9
4.
4.1
SIG et programmation ...........................................................................
Langages Python et R pour la géomatique...............................................
4.1.1 Langages de programmation pour la géomatique .........................
4.1.2 Manipulation d’objets vectoriels avec Python.................................
4.1.3 Utilisation de R ...................................................................................
Modules « metiers » ...................................................................................
4.2.1 Démarrage ..........................................................................................
4.2.2 Trois applications...............................................................................
4.2.3 Points forts et points faibles des modules « métiers » ...................
—
—
—
—
—
—
—
—
—
11
11
11
11
12
12
12
13
20
5.
Conclusion.................................................................................................
—
20
6.
Glossaire ....................................................................................................
—
20
4.2
H 7 416v2 - 2
Parution : février 2022
Pour en savoir plus .......................................................................................... Doc. H 7 416v2
ettre en œuvre un Système d’Information Géographique (SIG) est une
action coûteuse en moyens matériels et logiciels, en données et en
personnels. Une réflexion importante doit être menée pour évaluer les besoins
M
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
79
H 7 416v2 – 1
Référence Internet
H7416
SYSTÈMES D’INFORMATION GÉOGRAPHIQUE : ÉTUDES DE CAS
_____________________________________________________________________________
du concepteur et/ou de l’utilisateur. Pour ce faire, un questionnement doit être
mis en place de manière à définir un Modèle Conceptuel de Données (MCD) qui
constitue la base du système d’information géographique. En parallèle à cette
réflexion, il est bien souvent indispensable de sélectionner des solutions logicielles et informatiques qui seront nécessaires à la réalisation du projet.
2
L’objectif de cet article est de proposer une aide à la décision lors de cette
étape de mise en œuvre en conduisant une réflexion sur les questions de base
auxquelles il faut répondre lors de l’établissement d’un SIG, tout en présentant
succinctement les possibilités offertes aux concepteurs. Des développements
spécifiques sont proposés sur les applications Web et informatiques, tant ces
dernières s’imposent de manière incontournable dans la mise en œuvre d’un
SIG.
Pour illustrer ce volet mise en œuvre, au-delà du focus généraliste sur la
conception d’un SIG, trois axes d’exploitation sont proposés. Le premier illustre
l’utilisation des SIG couplés aux méthodes d’analyse multicritères dans le but
de résoudre une problématique spécifique. Le deuxième exemple présente la
mise en place d’une application SIG orientée Web-Mapping et sciences participatives autour de l’hydrologie et discute notamment des choix techniques qui
ont permis la réalisation de cette application. Enfin, un dernier développement
propose un focus sur les SIG et la programmation, qui permet d’automatiser
des traitements qu’il serait fastidieux de réaliser manuellement, en illustrant
l’utilisation des langages Python et R au travers de modules métiers.
Le lecteur trouvera en fin d’article un glossaire des termes utilisés.
d’un SIG permet de disposer d’un ensemble d’informations pouvant
être analysées, traitées et visualisées à l’aide d’outils informatiques,
afin de pouvoir prendre un ensemble de décisions. Cette démarche
implique la définition précise des objectifs à atteindre, le choix d’une
solution organisationnelle et informatique, le chargement et la mise à
jour des données et le traitement de ces données en fonction des différents besoins.
1. Conception d’un SIG
Qu’il s’agisse de construire un équipement, d’aménager ou de
gérer une zone, de produire de la connaissance, de gérer un service
public, ou encore d’intervenir en cas d’accident, chacun de ces projets impose la prise de décisions impliquant de nombreuses personnes et la mise en œuvre de moyens importants. Il peut alors
s’avérer rentable de mettre en place une information organisée,
entretenue et gérée en permanence, prête pour plusieurs besoins ou
pour un besoin imprévu.
Un SIG rassemble des données d’origines diverses dans un
système unique. Il est alors nécessaire de mettre en œuvre des
normes et des procédures communes à tous les intervenants : la
structure d’administration.
Dans ce cadre, l’utilisation envisagée (ou envisageable) de l’information géographique peut être regroupée en grandes catégories :
– l’accumulation de connaissances éparses, production de connaissances : il est souvent difficile pour un problème donné d’acquérir ou
de produire une connaissance rapide et exacte du terrain. Les informations sont souvent réparties entre plusieurs organismes (réseaux,
géologie, etc.), d’origine plus ou moins ancienne, connues éventuellement d’un groupe restreint de personnes (spécialistes ou population
générale) ;
– l’usage opérationnel de cartes et de plans actualisés : l’utilisateur souhaite disposer d’informations précises (cartographiques et
alphanumériques) et homogènes de la réalité du terrain au moment
où il doit intervenir (par exemple, canalisations diverses enterrées
sous une voirie). Les données doivent être actualisées, car elles évoluent dans le temps (érosion, modification de tracés, modification de
caractéristiques...) ;
– la représentation de « clichés instantanés » archivés : certaines
circonstances nécessitent de conserver l’image de situations antérieures, notamment pour l’étude de phénomènes évolutifs, que ce
soit pour les données graphiques (par exemple, l’évolution d’une
zone inondée) ou pour les données descriptives (évolution de la
population) ;
– la simulation d’événements : l’étude de l’impact d’un événement
sur son environnement (accident, aménagement d’une zone, effet de
la fermeture d’une vanne d’un réseau) nécessite une lisibilité des
résultats et un caractère opérationnel des données. La mise en œuvre
H 7 416v2 – 2
Le SIG est souvent localisé sur un serveur informatique unique
sur lequel vont s’accumuler un ensemble de couches d’informations destinées à différentes applications, il est alors nécessaire de
mettre en place une structure d’exploitation.
La mise en œuvre d’une application SIG doit également suivre
un certain nombre d’étapes incontournables :
– l’analyse d’opportunité qui comprend la définition de la problématique, des orientations stratégiques, l’analyse de la pertinence du projet et la réponse à une question essentielle « Faire ou
faire faire ? » ;
– la maîtrise directe du système qui implique de disposer de la
technicité indispensable en interne (ou de sa mise en œuvre) et
d’en avoir démontré la rentabilité économique ;
– l’étude de faisabilité qui couvre l’inventaire des besoins, l’élaboration des scénarios d’implantation, l’évaluation économique et
l’impact du SIG sur le projet ou le fonctionnement de l’organisme ;
– la maîtrise de l’usage du système qui implique l’expression
des besoins, l’adéquation entre les besoins et la solution retenue,
la pertinence et l’exactitude des données et enfin la validation des
résultats ;
– la modélisation du système qui peut conduire à construire les
différents modèles conceptuels (en partant de la démarche décrite
dans le tableau 1), à évaluer l’implication des utilisateurs, ainsi que
les priorités de développement ;
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
80
Référence Internet
H7416
______________________________________________________________________________ SYSTÈMES D’INFORMATION GÉOGRAPHIQUE : ÉTUDES DE CAS
La complexité des finalités doit s’accompagner de notions permettant l’exploitation de développements ouvrant des perspectives supplémentaires, dont quelques exemples sont présentés
ci-après.
Tableau 1 – Vers un modèle conceptuel
de données (d’après [1])
Analyse
des données
Analyse
des traitements
Quelles
informations
manipule-t-on ?
Que veut-on faire ?
Niveau logique
Comment
structurer
ces données ?
Qui fait quoi ? où ?
quand ?
Niveau physique
Où les stocker ?
Comment ?
Niveau conceptuel
À retenir
– Un Système d’Information Géographique (SIG) est défini
comme un ensemble d’outils permettant de stocker, de visualiser et d’extraire de l’information géographique sur un territoire pour un ensemble particulier d’objectifs.
– Une information géographique se définit par sa localisation
géographique (ses coordonnées) et ses données attributaires.
– La mise en œuvre d’un Modèle Conceptuel de Données
(MCD) est un préalable à la conception d’un SIG.
– l’analyse fonctionnelle qui vise à réaliser la description détaillée et à valider la nature et le rôle des procédés de traitement ;
– la réalisation technique qui englobe l’acquisition des logiciels,
la structuration des données, leur acquisition, la rédaction des
référentiels de formation, ainsi que celle des guides d’opération ;
– l’implantation et la formation qui visent à intégrer les fonctions et
les applications du SIG, à réaliser les tests opérationnels de performance ou de fiabilité, éventuellement un pilote (différentes options de
pilotes sont décrites dans la figure 1), à former les utilisateurs, et à
effectuer les éventuelles corrections ergonomiques ;
– l’exploitation et l’entretien, dernière étape, qui recouvrent l’utilisation du SIG, le perfectionnement des mécanismes de sécurité,
la saisie et la validation des données, la réalisation des contrôles
de qualité, la prise en compte de modifications.
2. Focus sur l’analyse
multicritère
Depuis les années 1990, les systèmes d’information géographique couplés aux méthodes d’analyse multicritères sont utilisés pour fournir des outils d’aide à la décision dans divers
domaines comme l’urbanisme, le transport, l’environnement, etc.
La démarche présentée ici concerne l’utilisation des SIG couplés
aux méthodes d’analyse multicritères pour résoudre une problématique d’approvisionnement en matériau pour une filière dans
un territoire donné [3]. Le principe est de produire des cartes
décisionnelles recensant les possibilités d’approvisionnement
dans le territoire et les différentes contraintes pouvant influencer
la prise de décision du maître d’œuvre/ouvrage souhaitant réaliser un chantier dans le territoire considéré.
La multitude des finalités possibles impose la nécessite de structurer la démarche de mise en œuvre d’un SIG. L’accès aux données
est aujourd’hui grandement facilité, et la principale difficulté réside
dans l’organisation logique de ces données en focalisant sur les
objectifs visés.
Figure 1 – Application SIG (d’après [2])
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
81
H 7 416v2 – 3
2
Référence Internet
H7416
SYSTÈMES D’INFORMATION GÉOGRAPHIQUE : ÉTUDES DE CAS
2
_____________________________________________________________________________
Par la suite, l’utilisateur SIG procède à la réalisation des cartes
critères en hiérarchisant les différents critères et en les agrégeant. Ici
la méthode utilisée est celle du critère unique de synthèse, correspondant à la somme pondérée des valeurs de la note du critère (ci) et
de leur poids (wi) (équation 1). À partir de leur note globale obtenue
, chaque parcelle sera classée et obtiendra un rang (wi) (1 pour
la meilleure parcelle et 147 600 pour la parcelle la moins intéressante).
Exemple :
Pour illustrer la démarche, prenons le cas de la lauze, matériau en
pierre utilisé dans l’architecture traditionnelle et patrimoniale dans le
Massif central. Le but est d’assister un artisan voulant déterminer les
meilleures solutions d’approvisionnement pour la réhabilitation de
deux patrimoines situés dans le Lot et en Aveyron (tableau 2).
Les solutions d’approvisionnement peuvent être en carrière existante ou en nouveau site d’extraction. La subdivision en parcellaire
cadastrale est utilisée pour représenter les solutions. Pour notre
cas, 147 600 parcelles ayant de la ressource sont considérées. La
localisation des patrimoines dans le territoire donné et les possibilités d’approvisionnement sont représentées figure 2. Les parcelles
cadastrales sont colorées en fonction de la probabilité de la présence de la ressource, plus la couleur est foncée, plus la présence
de la ressource est avérée.
La méthodologie développée figure 3 pour produire les cartes décisionnelles repose sur la mise en œuvre des principes des méthodes
d’analyse multicritères dans les SIG. Les lignes continues matérialisent
les étapes de la méthodologie, et les traits en pointillés les interactions
avec les auteurs de la prise de décision à chaque étape.
La première étape consiste à élaborer les cartes critères. À partir
d’entretiens avec le maître d’ouvrage et différents acteurs pouvant
intervenir sur la prise de décision, les critères influençant la décision
du porteur de projet et leur poids sont définis. Les attributs de chaque
parcelle cadastrale seront notés par rapport à chaque critère considéré (figure 4) Les critères influençant la décision peuvent être liés au
statut administratif de la parcelle, la présence de la ressource, la qualité de la ressource, les exigences environnementales, les risques
naturels ou la rentabilité économique.
(1)
Ainsi, les cartes décisionnelles sont produites avec les niveaux de
recommandation pour approvisionner le chantier à partir des ressources
locales du territoire (figures 4 et 5).
Pour terminer, il est utile pour le donneur d’ordre de connaître
l’influence de chaque critère sur la prise de décision. Pour cela, il faut
procéder à l’analyse de sensibilité. Elle consiste à évaluer l’évolution
de la note d’une parcelle lorsque la note d’un critère évolue.
(2)
En considérant les 100 parcelles ayant obtenu la meilleure note,
et en fonction des chantiers, nous constatons qualitativement que
les critères n’ont pas toujours la même influence sur la prise de
décision. Comme on peut le constater sur les figures 6 et 7, pour le
chantier 1, c’est le statut administratif des parcelles qui influence le
plus la décision, alors que pour le chantier 2, c’est la qualité du
matériau.
Tableau 2 – Patrimoine à réhabiliter
Chantier 1 : Caselle
Description
du chantier
Caselle appartenant au conseil départemental du
Lot, sur un Espace Naturel Sensible (ENS) et le
long du « sentier des Caselles ».
Restauration de sa toiture de 100 m2 en lauze
calcaire.
Chantier 2 : Église
Église Saint-Chély, située dans la commune de Séverac-d’Aveyron en
Aveyron, construite en 1651 par le duc Louis d’Arpajon, seigneur du
château de Séverac.
Restauration de sa toiture de 300 m2 en lauze calcaire.
Photo
H 7 416v2 – 4
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
82
Référence Internet
H7416
______________________________________________________________________________ SYSTÈMES D’INFORMATION GÉOGRAPHIQUE : ÉTUDES DE CAS
CORRÈZE
2
LOZÈRE
HÉRAULT
Chantier
Nom de ville
Périmètre du territoire Massif central
Présence ressource hypothétique
Présence ressource avérée
Limite département
Figure 2 – Localisation des chantiers à approvisionner dans le territoire
Projet de construction
Maître d’ouvrage (décideur)
Réhabilitation d’un toit en
lauze calcaire
Architecte, propriétaire…
1- Cartes actions potentielles
Gisements et carrières existantes
(action parcellaire - cadastre)
Maître d’œuvre (décideur)
Artisan couvreur lauzier
Les agis (influençant
le jugement et la décision)
Municipalité, préfecture,
DREALs, UDAP
2- Définition et hiérarchisation des cartes critères
Possibilité administrative, présence de la ressource,
qualité de la ressource, exigences environnementales,
risques naturels, rentabilité économique
3- Agrégation des critères
Agrégation des performances
Analyse de sensibilité
4- Carte décisionnelle
Figure 3 – Méthodologie d’obtention des cartes décisionnelles
Copyright © – Techniques de l’Ingénieur – Tous droits réservés
83
H 7 416v2 – 5
2
84
Référence Internet
P4250
Partage de données
environnementales
par
Grégory GIULIANI
Chargé d’enseignement
EnviroSPACE, Université de Genève – Institut des sciences de l’environnement, Genève,
Suisse
GRID-Genève, Programme des Nations unies pour l’environnement, Genève, Suisse
1.
Contexte...................................................................................................
2.
2.1
2.2
2.3
2.4
Cadre théorique .....................................................................................
Préambule..................................................................................................
Infrastructures de données géospatiales ................................................
Interopérabilité et normes ........................................................................
Quelques exemples d’initiatives à l’échelle nationale, régionale
et globale ...................................................................................................
—
—
—
—
3
3
4
7
—
9
3.
3.1
3.2
3.3
—
—
—
3
14
15
3.4
Quelques retours d’expérience..........................................................
Plateforme globale sur les risques naturels ...........................................
Modéliser l’hydrologie du bassin-versant de la mer Noire ...................
Utilisation des données d’observations de la Terre
à des fins économiques ............................................................................
Quelques autres plateformes thématiques.............................................
—
—
17
17
4.
4.1
4.2
Discussion ...............................................................................................
Bénéfices et limitations à la diffusion et utilisations des IDG ...............
Perspectives...............................................................................................
—
—
—
20
20
21
5.
Conclusions.............................................................................................
—
22
4.
Glossaire ..................................................................................................
—
23
Pour en savoir plus ........................................................................................
P 4 250 - 2
Doc. P 4 250
ous vivons dans un monde globalisé dont les processus tels que les changements climatiques, de couverture du sol ou la croissance de la
population évoluent rapidement et impactent l’environnement. En parallèle, les
moyens de communication ont connu une importante expansion prenant une
place remarquable dans nos sociétés, nous permettant d’accéder à un flot
continu et énorme d’informations. L’objectif de base de cet article est de
rendre les données environnementales interopérables et de fournir un accès à
des ressources de calcul pour permettre aux différents utilisateurs de passer
plus de temps à l’analyse des données et moins à leur recherche, et ainsi faciliter l’accès aux données environnementales à de nombreux utilisateurs
potentiels. La recherche actuelle a démontré que les concepts, méthodes et
technologies liées aux infrastructures de données géospatiales (IDG) sont
adaptés et peuvent apporter des bénéfices majeurs pour soutenir et faciliter la
recherche, l’accessibilité, la visualisation, la dissémination et l’analyse de
données environnementales. De plus, faciliter l’accès, l’intégration et l’utilisation de données géospatiales peut répondre aux besoins de communautés
spécifiques et rendre disponibles ces données au plus large public possible.
Les challenges auxquels l’humanité doit faire face requièrent d’agir aujourd’hui
et de fournir aux décisionnaires des outils adéquats afin qu’ils puissent
accéder rapidement et de façon efficace à de l’information environnementale
fiable. Les IDG ont clairement ce potentiel qui permet de combler l’écart entre
la science et l’élaboration des politiques.
Parution : février 2016 - Dernière validation : août 2018
N
Copyright © –Techniques de l’Ingénieur –Tous droits réservés
85
P 4 250 – 1
2
Référence Internet
P4250
PARTAGE DE DONNÉES ENVIRONNEMENTALES __________________________________________________________________________________________
Le présent article souhaite, après avoir présenté pourquoi le partage de
données environnementales est essentiel pour mieux appréhender le fonctionnement de notre planète, se concentrer sur les aspects techniques pour
faciliter le partage de données environnementales. Qu’est-ce qu’une infrastructure de données géospatiales IDG ? Quels sont ses composants ? Qu’est-ce
que l’interopérabilité ? Quelles sont les initiatives aux échelles nationale, européenne et mondiale qui permettent de faciliter l’accès aux données
environnementales ? Plusieurs plateformes sont présentées, permettant de
montrer les bénéfices et les limites techniques, économiques et institutionnelles du partage de données environnementales.
2
1. Contexte
pouvoir les intégrer. Cela est principalement dû au fait que les
données géospatiales sont volumineuses, complexes (géométries,
relations, attributs), distribuées géographiquement et hétérogènes.
En plus, les arrangements institutionnels et les politiques (par
exemple, les droits d’auteur, droits de propriété intellectuelle)
peuvent entraver la diffusion de ces données géospatiales. Tous
ces facteurs influencent la façon dont les fournisseurs de données
stockent, publient et diffusent des données environnementales. En
outre, les utilisateurs manquent souvent de ressources de calcul
appropriées pour analyser ces données. Les projets de recherches
environnementales actuels ont régulièrement besoin de gérer plusieurs téraoctets de données et d’accéder à des ressources de
calculs haute performance (cloud, grid, supercalculateur) ainsi que
des logiciels. Cela explique pourquoi actuellement les sources de
données sont souvent fragmentées, l’intégration des données
géospatiales pour répondre à un problème scientifique est difficile
et coûteuse, et la diffusion de l’information géospatiale est problématique et malheureusement appliquée de façon peu efficace. Par
conséquent, faciliter l’accès aux données et aux ressources informatiques de haute performance peut potentiellement améliorer la
situation mentionnée ci-dessus et permettrait aux utilisateurs de
données de passer plus de temps à l’analyse qu’à la recherche de
données et de permettre à davantage de personnes de bénéficier
de l’utilisation de ces données.
Notre planète est un système multidimensionnel fait d’interactions complexes, en constante évolution, à différentes échelles
spatiales et temporelles. Pour comprendre ces interactions, il faut
collecter et intégrer différents jeux de données sur les systèmes
physiques, chimiques, biologiques, sociaux et économiques.
L’ensemble de ces données permet de décrire au mieux l’environnement. Ces données sont communément géoréférencées,
c’est-à-dire qu’elles décrivent un endroit à la surface de la Terre
(donc localisables géographiquement) à travers un ensemble
d’attributs. Un ensemble de données sur l’environnement est rarement intéressant en soi mais démontre plutôt son plein potentiel
informatif lorsqu’il est utilisé conjointement avec d’autres jeux de
données, permettant de surveiller et d’évaluer l’état réel de l’environnement aux échelles globale, régionale ou locale, et ainsi de
mieux appréhender les relations complexes entre elles et finalement de pouvoir modéliser les changements futurs.
En Sciences de l’environnement, « Observer, Partager,
Informer » sont trois étapes nécessaires pour relever les défis
complexes résultant de la pression croissante causée par les changements climatiques, la perte de biodiversité, l’exposition aux risques naturels ou d’autres menaces environnementales impactant
nos sociétés et influençant divers aspects de notre vie quotidienne.
Les décisionnaires en essayant de répondre et résoudre des problèmes tels que la pénurie de ressources naturelles, l’insécurité alimentaire, les pollutions, la préservation de la biodiversité ou
encore l’efficacité énergétique doivent prendre de nombreuses
décisions chaque jour. Cependant, ils sont tous régulièrement
confrontés au même problème : ils ont besoin de prendre des décisions judicieuses uniquement sur la base d’informations partielles
et par conséquent ils ne peuvent pas gérer efficacement ce qu’ils
ne peuvent pas mesurer. Il est donc essentiel de pouvoir recueillir
et intégrer la vaste quantité de données environnementales générées quotidiennement mais souvent exploitées de façon isolée
pour pouvoir au mieux comprendre comment fonctionne notre
environnement. Les observations de la Terre (par satellite ou par
mesures in situ ) sont utilisées et compilées pour répondre à des
questions spécifiques, pour comprendre ou expliquer une tendance, pour confirmer ou infirmer une thèse, pour faire des prédictions ou pour l’aide à la prise de décisions. Ces données
représentent donc des mesures quantitatives correspondant à une
valeur à un moment donné, dont le taux de variation, la distribution spatiale et de nombreux autres attributs permettent dedécrire
notre environnement aussi précisément que possible.
L’interopérabilité apparaît donc comme une condition essentielle pour élaborer un cadre de science ouvert permettant aux
scientifiques et chercheurs de publier, découvrir, évaluer et accéder efficacement à des données environnementales. Les technologies actuelles sont adaptées et répondent à ces besoins à la
condition que des interfaces logicielles ouvertes et libres ainsi que
des normes soient développés permettant à ces technologies
d’interopérer à l’échelle mondiale.
L’Open Geospatial Consortium (OGC) a pour objectif de
développer et de définir ces normes permettant la communication et l’échange d’informations entre différents systèmes de
types différents exploités avec des logiciels et systèmes différents.
En effet, un système non interopérable ne peut pas partager de
données et de ressources informatiques, obligeant les scientifiques à passer beaucoup plus de temps que nécessaire sur la
recherche et la transformation de données. L’OGC fournit dix-huit
raisons pour lesquelles les normes d’interopérabilité peuvent aider
considérablement les scientifiques dans leurs recherches quotidiennes et contribuer à des valeurs élémentaires de la science :
– la transparence des données ;
– la vérifiabilité ;
– l’unification des observations ;
– des études interdisciplinaires ;
– les études transdisciplinaires ;
– la réutilisation ;
Actuellement, l’accessibilité, la disponibilité et la compatibilité
des données ainsi que le manque de ressources de calculs pour
les analyser sont parmi les difficultés les plus fréquentes qui
influencent négativement la façon dont les scientifiques, les chercheurs, les décideurs et le grand public accèdent et utilisent ces
données environnementales. En Europe, on estime que jusqu’à
50 % du temps des utilisateurs est passé dans la recherche et
transformation de données afin de les rendre compatibles et de
P 4 250 − 2
Copyright © –Techniques de l’Ingénieur –Tous droits réservés
86
Référence Internet
P4250
___________________________________________________________________________________________ PARTAGE DE DONNÉES ENVIRONNEMENTALES
Une étude menée par la revue Science, interrogeant plus de 1 700
scientifiques, a montré que plus de 50 % des intervenants stockent
leurs données uniquement dans leurs laboratoires [4]. Cela entrave
évidemment la disponibilité et l’accès à ces données et ne
constitue pas non plus une solution idéale de stockage à long
terme. En outre, l’absence de description de ces données est un
facteur interdisant la recherche de ces données. Finalement, 80 %
des répondants n’ont aucun financement pour soutenir l’archivage
et la gestion des données. Pour la plupart des scientifiques interrogés, bénéficier d’un accès amélioré aux données permettrait l’utilisation et la réutilisation de ces données autant que possible et
offrirait de nombreuses opportunités. La possibilité d’intégrer des
jeux de données peut potentiellement améliorer la compréhension
des systèmes complexes, multidimensionnels et interdépendants,
résoudre des problèmes sociétaux et environnementaux clés, ainsi
qu’ouvrir la voie à de nouveaux domaines de recherche [5].
– la planification ;
– le retour sur investissement ;
– la comparabilité ;
– la maximisation de valeur ;
– la recherche/découverte de données ;
– l’exploration de données ;
– la fusion de données ;
– le chaînage ;
– le rythme de la science ;
– la science citoyenne ;
– la compatibilité ascendante ;
– l’intervention en temps opportun.
Par conséquent, en étant interopérable, tout système peut
échanger largement et efficacement des données, afin de maximiser la valeur et la réutilisation de données et d’informations sous
son contrôle. Cela permet l’échange de données et d’informations
avec d’autres systèmes interopérables et cela permet à de nouvelles connaissances d’émerger à partir de relations qui n’ont pas été
envisagées précédemment. L’objectif ultime étant de passer moins
de temps dans la recherche de données et plus de temps à faire de
la science, grâce à une intégration facilitée et à l’analyse des données efficace, et de faciliter la communication des informations et
des résultats nouvellement générée. Les défis environnementaux
collectifs d’aujourd’hui exigent non seulement que la science soit
utile mais aussi et surtout utilisée. L’interopérabilité est donc une
condition essentielle pour pouvoir atteindre cet objectif.
L’un des plus importants progrès apportés par les TIC est
l’émergence de ce que l’on appelle communément la science électronique ou e-science qui peut être défini comme « un accès accru,
via l’Internet, à des ressources distribuées, facilitant la collaboration à l’échelle globale ». Un des thèmes brûlants dans la science
électronique concerne l’accès aux données servant principalement
comme base de la recherche scientifique. Un accès facilité et
ouvert aux données peut être perçu comme un avantage permettant une large utilisation (à la fois pour les scientifiques et le public
en général) et permettant en particulier aux scientifiques de
comparer plus facilement leurs résultats et leurs méthodes et de
renforcer ainsi la responsabilité et la crédibilité scientifique, ainsi
qu’améliorer la qualité des données. Pour Arzberger et al.
(2004) [3], en raison du fait que la recherche est de plus en plus
globale, il y a un besoin clair de traiter systématiquement l’accès
et le partage des données. Pour ces auteurs « s’assurer que les
données scientifiques sont accessibles facilement afin qu’elles
soient utilisées le plus souvent et largement possible est une question de saine gestion des ressources publiques ». Ces auteurs ont
indiqué que les données financées par l’État sont un bien public
produit dans l’intérêt public et devraient donc être librement accessibles dans la mesure du possible. Actuellement, dans certaines
communautés scientifiques spécifiques (par exemple, les géosciences ou la météorologie), les données sont déjà partagées en
utilisant l’état de l’art des technologies, mais leurs impacts restent
faibles et restreint au sein de ces mêmes communautés.
2. Cadre théorique
2.1 Préambule
Kofi Annan, le septième secrétaire général de l’Organisation
des Nations unies et prix Nobel de la Paix 2001, a déclaré :
« l’information et la connaissance sont au cœur de la démocratie et des conditions pour le développement .... La connaissance est le pouvoir. L’information est libératrice. L’éducation
est la prémisse de progrès, dans chaque société, dans chaque
famille ».
Au cours des 30 dernières années, la quantité de données géospatiales disponibles a considérablement augmenté suite à l’évolution des moyens de communication et le développement rapide
des technologies spatiales de capture de données tels que le Global Positioning System (GPS), la télédétection ou les réseaux de
senseurs. Au cours des dix dernières années, avec l’avènement
d’applications comme Google Earth, l’information géographique a
été largement diffusée et systématiquement intégrée dans le flux
de travail tant au niveau des agences gouvernementales que dans
le secteur privé [6].
Dans un monde globalisé supporté par les technologies de
l’information et de la communication (TIC), les moyens de
communication ont considérablement élargi notre horizon permettant d’accéder à un flux énorme et continu d’informations influençant fortement notre société, notre économie, ou encore la façon
dont les gens vivent et travaillent. Les TIC ont globalement amélioré la productivité des personnes permettant à chacun, ainsi
qu’aux industries et aux pays, de participer conjointement au
développement d’une société fondée sur la connaissance [1].
Ces changements influencent et transforment bien évidemment
aussi le monde de la recherche scientifique. En effet, la science est
basée sur des données. Deux des défis majeurs auxquels les scientifiques sont aujourd’hui confrontés sont [2] [3] :
– l’énorme quantité, complexité et variété des données qui sont
actuellement produites ;
– être en mesure de tirer pleinement parti de la connaissance et
de l’information produite par les scientifiques et les chercheurs.
Malgré le fait que les administrations et les gouvernements
reconnaissent que l’information géospatiale est importante et doit
faire partie intégrante des données de base qui doivent être efficacement coordonnées et gérées dans l’intérêt de tous les citoyens,
cette énorme quantité de données est stockée à différents endroits,
gérée par différentes organisations et donc la grande majorité de
ces données n’est malheureusement pas utilisée aussi efficacement qu’elle le devrait [7]. En outre, lors de la Conférence des
Nations unies sur l’environnement et le développement à Rio de
Janeiro en 1992, la résolution Agenda 21 a souligné l’importance
de l’information géospatiale pour supporter la prise de décision et
de gestion sur la dégradation et les menaces qui affectent
l’environnement [8]. En d’autres termes, cela signifie qu’il est
essentiel de disposer et d’accéder à une information appropriée.
Le développement de bases de données et l’échange d’informations sont des conditions nécessaires pour envisager un développement durable et répondre aux besoins de gestion de
Notre société dépend de plus en plus des progrès scientifiques
et technologiques permettant par exemple d’améliorer la santé et
le bien-être des êtres humains aussi bien que d’améliorer l’information sur les menaces environnementales ou encore le développement durable ou la gestion des ressources naturelles. En
outre, les scientifiques ont parfois été critiqués pour leur manque
de transparence (par exemple, lors du climategate ). Par conséquent, une meilleure collecte, gestion, stockage et accès des données sont des éléments essentiels pour améliorer cette situation.
Copyright © –Techniques de l’Ingénieur –Tous droits réservés
87
P 4 250 – 3
2
Référence Internet
P4250
PARTAGE DE DONNÉES ENVIRONNEMENTALES __________________________________________________________________________________________
2
Cela conduit inévitablement à un usage inefficace et à une duplication des efforts. Il est donc évident que les pays peuvent bénéficier à la fois économiquement et environnementalement d’une
meilleure gestion de leurs données.
l’information pour la mise en œuvre et le suivi des politiques de
développement durable et des objectifs tels que les Objectifs du
développement durable (ODD) des Nations unies. Ainsi, l’information géographique peut être considérée comme un élément qui
supporte de nombreuses disciplines scientifiques ainsi que la prise
de décisions politiques à toutes les échelles, du local au global [9].
L’expérience des pays développés montre que plus des deux tiers
des décisions politiques sont influencés par de l’information géographique. Cependant, l’information géospatiale est une ressource
coûteuse à maintenir et qui prend du temps à produire. Il est donc
nécessaire pour améliorer l’accès et la disponibilité des données
de promouvoir leur réutilisation. Bon nombre des décisions que
les différentes organisations ont besoin de prendre dépendent
directement de la disponibilité d’informations sur leur territoire. En
conséquence, un accès facilité à des données adéquates et cohérentes est nécessaire pour répondre à ce besoin crucial.
En conséquence, il est maintenant essentiel de rendre ces données facilement disponibles et accessibles afin de donner la possibilité aux utilisateurs de les transformer en informations
compréhensibles avec des avantages clairs et larges pour la
société et l’économie, parce que « c’est en travaillant ensemble
que nous pourrons aider à résoudre bon nombre des problèmes
les plus urgents de notre société... ». Il est évident qu’il y a encore
de nombreux défis à relever lorsque l’on commence à partager
des données, mais ils doivent être surmontés afin d’améliorer
notre connaissance, en partageant nos expériences et en essayant
de construire une société mieux informée. Atteindre l’objectif d’un
développement durable nécessite l’intégration d’un grand nombre
de différents types de données provenant de différentes sources.
Grâce à des normes communes et à une volonté institutionnelle/politique claire, ces données peuvent être échangées et intégrées d’une manière interopérable, conduisant à une nouvelle
approche de collaboration pour la prise de décision.
En 1998, l’ancien vice-président des États-Unis, Al Gore, a présenté le concept visionnaire et révolutionnaire d’une Terre digitale
« une représentation en trois dimensions de la planète, dans
laquelle nous pouvons intégrer de vastes quantités de données la
Terre » [10]. Au jour d’aujourd’hui, cette vision n’est pas encore
pleinement réalisée mais reste toujours pertinente. Pour Al Gore,
le challenge le plus important pour tirer parti de cette énorme
quantité d’information est de « donner un sens à des données brutes en les transformant en informations compréhensibles » car
actuellement nous avons plus de données que nous sommes en
mesure d’en gérer et elles sont stockées dans des « silos de données électroniques » et ne sont la plupart du temps jamais utilisées. Al Gore a imaginé des applications où « l’information peut
être facilement fusionnée avec une carte ou des données numériques terrain » permettant à l’utilisateur de se déplacer à travers
l’espace et le temps. Pour réaliser cette vision, un important effort
de collaboration (gouvernement, industrie, milieu académique et
citoyens) est nécessaire. Au jour d’aujourd’hui, toutes les technologies et les capacités nécessaires pour transformer cette vision en
réalité sont disponibles :
– informatique : même un simple ordinateur de bureau peut traiter des modèles et des simulations complexes. Avec le potentiel
des technologies telles que le Cloud Computing, de nouveaux
éclairages sur les données sont possibles, donnant la possibilité de
simuler des phénomènes qui sont impossibles à observer ;
– stockage de masse ; le stockage téraoctets de données sur un
ordinateur de bureau n’est plus un problème ;
– observations de la Terre ; de nombreux satellites observent
continuellement la Terre fournissant des données multispectrales,
spatiales et temporelles ;
– senseurs ; il est désormais possible d’accéder aux données en
temps réel provenant de senseurs qui surveillent et mesurent
continuellement différentes variables environnementales (température, précipitation) ;
– réseaux à large bande ; elles sont déjà une réalité en donnant
la possibilité de connecter différentes bases de données
ensemble ;
– interopérabilité ; elle permet la communication, l’échange et
l’intégration de données ;
– métadonnées ; elles décrivent les données permettant à un utilisateur d’évaluer et de découvrir les données avant de les utiliser.
2.2 Infrastructures de données
géospatiales
Les données géospatiales peuvent donc être vues comme une
ressource que l’on peut partager et qui peut être maintenue
continuellement [8]. Disposer de données géospatiales sous forme
numérique permet de :
– facilement les stocker dans les bases de données ;
– faciliter l’échange et le partage ;
– avoir des mises à jour plus rapides ;
– offrir la possibilité d’intégrer des données provenant de sources diverses ;
– favoriser enfin le développement de produits et de services
personnalisés.
Par conséquent, un environnement collaboratif basé sur la
notion de partenariat dans la production, la gestion et l’intégration
de données apporterait des nombreux avantages [12]. Le concept
d’infrastructure de données géospatiales IDG (Spatial Data infrastructure SDI) a émergé au début des années 2000 afin de faciliter
et coordonner l’échange et le partage de données géospatiales.
Une IDG (infrastructure de données géospatiales) est
constituée non seulement des sources de données mais tient
compte également des aspects techniques (serveurs, réseaux,
normes) et aussi des aspects institutionnels (droits, gestion,
gouvernance) afin de faciliter la recherche et l’accès aux données provenant de différentes sources au plus grand nombre
possible d’utilisateurs.
On peut voir une IDG comme une autoroute de l’information intégrant des données allant du local au global et constituant un cadre
nécessaire pour une communauté afin de faire un usage efficace
des données géospatiales. Les IDG visent à éviter la duplication des
efforts et des dépenses en permettant aux utilisateurs d’économiser
des ressources et du temps en essayant d’acquérir ou de maintenir
des jeux de données. Masser (2005) [75] et Nebert (2005) [8] donnent une définition complète de ce qu’est une IDG : « Une infrastructure de données géospatiales permet un accès facilité à
l’information géographique. Ce résultat est obtenu grâce à l’action
coordonnée des nations et des organisations qui promeuvent la
sensibilisation et la mise en œuvre de politiques complémentaires,
de normes communes et de mécanismes efficaces pour le développement et la mise à disposition des données géographiques numériques interopérables et des technologies pour soutenir la prise de
décisions à toutes les échelles. Ces actions englobent des aspects
politiques, organisationnels, technologiques, financiers, humains,
Même si toutes ces technologies sont prêtes, les organisations
et agences à travers le monde continuent de dépenser des
milliards de dollars chaque année pour produire, gérer et utiliser
des données géospatiales sans obtenir l’information dont ils ont
besoin pour répondre aux défis auxquels notre monde est
confronté [11]. De nombreux auteurs soulignent également les
faits que :
– la plupart des organisations et/ou organismes ont besoin de
plus de données qu’ils ne peuvent se permettre ;
– ces données sont souvent en dehors de leur juridiction ;
– les données recueillies par les différentes organisations sont
souvent incompatibles.
P 4 250 – 4
Copyright © –Techniques de l’Ingénieur –Tous droits réservés
88
Référence Internet
P4250
___________________________________________________________________________________________ PARTAGE DE DONNÉES ENVIRONNEMENTALES
permettant aux utilisateurs de trouver, découvrir, évaluer et utiliser
des données, à savoir :
– des jeux de données de base clairement définis ;
– le respect des normes et des procédures connues et acceptées
internationalement ;
– des bases de données pour stocker des données et de la documentation accessible sur les données (métadonnées) ;
– des politiques et des pratiques qui favorisent l’échange et la
réutilisation des informations ;
– des ressources humaines et techniques suffisantes pour
collecter, conserver, manipuler et distribuer des données
géospatiales ;
– de bons canaux de communication entre les personnes/organisations concernées par les données géospatiales, permettant
d’établir des partenariats et de partager des connaissances ;
– la technologie d’acquisition et de diffusion de données à travers les réseaux ;
– les arrangements institutionnels pour collaborer à coopérer et
coordonner des actions.
afin d’assurer que les données sont facilement accessibles à toute
à chacun ».
Si, auparavant, l’information géographique était essentiellement
présentée sous la forme de cartes papier, elle est désormais surtout utilisée sous forme numérique dans un SIG.
Un système d’information géographique (SIG) est un logiciel
qui permet d’assembler, de stocker, manipuler et afficher des
informations géographiques.
Un SIG donne la possibilité de fusionner/intégrer différentes
informations provenant de différentes sources en facilitant la
collaboration dans la création et l’analyse de ces données. Grâce
aux nouvelles possibilités de réutilisation de données existantes,
de nouveaux défis se posent. Quand un utilisateur souhaite créer
une nouvelle couche d’informations basée sur différents jeux de
données, des formats différents, avec une terminologie et une
projection différentes, il est assez difficile de les réunir. L’harmonisation des données géospatiales est donc une tâche complexe,
coûteuse et fastidieuse, mais néanmoins nécessaire pour pouvoir
intégrer différents jeux de données.
Rajabifard et Williamson (2001) [12] font remarquer qu’il y a une
composante supplémentaire très importante représentée par les
personnes. Cela inclut non seulement les utilisateurs de données
géospatiales mais aussi les fournisseurs de données et d’autres
dépositaires de données. Pour ces auteurs, les gens sont la clé
pour le traitement des transactions et de la prise de décision. Faciliter le rôle des personnes et des données en matière de gouvernance qui prend en charge de manière appropriée la prise de
décision et les objectifs de développement durable est au cœur du
concept d’IDG.
La reconnaissance croissante qu’une fois qu’un jeu de données
a été créé, il peut être utilisé par différents utilisateurs renforce la
nécessité de stocker des données dans des bases de données qui
sont rendues accessibles pour des utilisations diverses et variées.
Cela conduit à la notion que les données géospatiales peuvent être
une ressource partageable maintenue en permanence.
Les avantages d’avoir des données géospatiales sous forme
numérique sont les suivants [13] [14] :
– stockage facilité ;
– diffusion facilitée ;
– facilité de l’échange et partage ;
– mises à jour et corrections plus rapides et plus faciles ;
– capacité à intégrer des données provenant de sources multiples ;
– personnalisation des produits et services.
En résumé, Rajabifard et Williamson (2001) [12] suggèrent
qu’une IDG ne peut pas être considérée seulement comme
composée de données géospatiales, des services et des utilisateurs, mais implique aussi d’autres questions relatives à
l’interopérabilité, les politiques et les réseaux.
2.2.2 Évolution future et tendances
2.2.1 Composants d’une IDG
Différents auteurs [15] [16] [17] ont étudié la diffusion et l’évolution
des IDG dans le monde et montrent que les motivations derrière les
initiatives IDG sont généralement similaires :
– promouvoir le développement économique ;
– stimuler un meilleur gouvernement ;
– favoriser la durabilité de l’environnement ;
– modernisation de l’État ;
– gestion de l’environnement.
Masser (2005) [75] identifie les différents secteurs pouvant interagir sur une IDG démontrant la diversité des acteurs impliqués et
de leurs intérêts :
– organisations gouvernementales nationales ;
– organisations gouvernementales locales ;
– secteur commercial ;
– organisations non gouvernementales à but non lucratif ;
– université ;
– individus.
Ils sont tous d’accord sur le fait que, dès aujourd’hui, une masse
critique d’utilisateurs a été atteinte à la suite de la diffusion des
concepts IDG au cours des dix à quinze dernières années. Cela
fournit un réseau de base de personnes et d’organisations qui est
essentiel pour le développement futur des IDG.
Par conséquent, la tentation est grande de créer un système centralisé qui répondrait à tous les besoins de ces utilisateurs. De
plus, Ezigbalike (2004) [13], Henricksen (2007) [11] et Nebert
(2005) [8] rapportent que l’existence de données et d’informations
pertinentes ne garantit pas qu’elles seront utilisées. D’autres facteurs importants sont à considérer pour assurer que l’information
sera utilisée et réutilisée :
– le besoin de savoir que les données existent, et où elles
peuvent être obtenues ;
– l’autorisation pour accéder et utiliser ces données ;
– le besoin de connaître l’histoire de la capture de données, afin
d’interpréter correctement, lui faire confiance et être en mesure de
l’intégrer de façon significative avec les données provenant
d’autres sources ;
– le besoin de savoir si les données dépendent d’autres jeux de
données, afin de donner un sens aux données.
Rajabifard et Williamson (2001) [12] constatent que la première
génération des IDG, basée sur un modèle de produit, a fait place à
une deuxième génération au début des années 2000, cette dernière
étant caractérisée par un modèle de processus. En effet, la première génération des IDG était basée sur le produit, visant principalement à relier les bases de données existantes entre elles
tandis que la seconde génération vise à définir un cadre pour faciliter la gestion et la réutilisation de données collectées par un large
éventail de personnes et/ou organisations, devant répondre à une
grande diversité d’objectifs, tout cela à différentes échelles de
temps et d’espace. Pour Masser (2005) [75], cette évolution souligne le passage de préoccupations des producteurs de données à
ceux des utilisateurs de données et le passage de structures centralisées à des réseaux décentralisés et distribués comme le Web.
Le modèle basé sur les processus met l’accent sur les canaux de
communication ainsi que sur le renforcement des capacités pour la
Par conséquent, pour exploiter pleinement le potentiel des
données, une IDG doit être constituée de différents composants
Copyright © –Techniques de l’Ingénieur –Tous droits réservés
89
P 4 250 – 5
2
Référence Internet
P4250
PARTAGE DE DONNÉES ENVIRONNEMENTALES __________________________________________________________________________________________
L’architecture SOA est le principe de base soutenant la mise en
place de services Web. L’objectif principal étant de faciliter le couplage avec des composants logiciels afin qu’ils puissent être réutilisés. Dans une architecture SOA, l’élément clé est celui des
services. Un service est un ensemble d’actions, autonome et ne
dépendant pas de l’état des autres services. Dans une architecture
SOA (figure 1), il y a trois acteurs :
– le fournisseur de services ;
– le demandeur de services ;
– le courtier en service ;
associés à trois opérations fondamentales : publier, trouver et se
connecter. Dans un scénario traditionnel, un fournisseur de services héberge un service Web et « publie » une description de service à un courtier de service. Le demandeur de service utilise une
opération « trouver » pour récupérer la description du service et
l’utilise pour « connecter » avec le fournisseur de service et invoquer le service Web lui-même.
Harvest
Catalog
MEF
CSW
ISO 19139
ISO 19115
ta
Se
da
eta
arc
Raster files
eta
vid
o
Pr
Web
hm
em
da
Discover
ta
Desktop
Print
Vector files
Access data
2
utilisant n’importe quelle plate-forme, modèle d’objet ou langage
de programmation. Un service n’est rien de plus qu’une collection
d’opérations qui peut être appelée par un utilisateur. Un service
peut être simple (par exemple, générer une carte) ou complexe
(par exemple, exécuter un modèle hydrologique). En résumé, les
services Web permettent et facilitent la communication entre application via Internet et utilisent, en général, des normes ouvertes
tels que XML.
création d’IDG afin de faciliter la coopération et l’échange de données et de connaissances. Rajabifard et Williamson (2001) [12]
mettent également en évidence le fait que les caractéristiques des
systèmes sociaux influencent fortement l’approche adoptée pour
mettre en œuvre et développer une infrastructure de données
géospatiales. Ils proposent des questions et des stratégies à
prendre en compte lors du processus de conception :
– le développement d’une vision stratégique et d’une stratégie
de mise en œuvre associée ;
– la reconnaissance qu’une IDG n’est pas une fin en soi ;
– une stratégie institutionnelle et une gouvernance afin d’avoir
tous les processus de coordination administrés par un groupe.
Actuellement, d’un point de vue technique, l’effort se concentre
sur le développement et la mise en oeuvre de l’échange de données géospatiales de façon interopérable grâce à des services via
l’Internet. Les IDG actuelles sont basées sur le concept de services
Web et sur les architectures orientée services SOA (Service Oriented Architecture ) [18] [19].
Les services Web sont un paradigme où les différents systèmes
ou fournisseurs offrent certains services pour certains groupes
d’utilisateurs, ce qui permet un accès facile aux données au traitement. Cela souligne la nécessité que les systèmes impliqués
puissent communiquer les uns aux autres. En d’autres termes, les
services Web reposent sur l’interopérabilité. Les services Web
offrent la possibilité de développer des applications Web en
Create
Databases
Notebook
Use
PDA
Pr
ov
GPS surveys
ide
ta
da
ta
ss
da
e
cc
Publish
Phone
A
GPS
WFS
WMS
KML
GeoJSON
GeoRSS
WCS
Un créateur (Create) de données documente (Provide metadata) et publie sa donnée (Provide data). L’utilisateur (Use) recherche
une donnée grâce à la métadonnée (Search metadata) et une fois trouvée il peut y accéder (Access data).
Figure 1 – Schéma général d’une architecture SOA dans le cadre d’une IDG (doc. OGC)
P 4 250 – 6
Copyright © –Techniques de l’Ingénieur –Tous droits réservés
90
Référence Internet
AF1515
Morphologie mathématique
et traitement d’images
par
Isabelle BLOCH
Professeur
Institut Mines-Télécom – Télécom ParisTech – CNRS LTCI – Paris
1.
Un peu d’histoire.............................................................................
2.
2.1
2.2
2.3
2.4
Opérations de base .........................................................................
Définitions et propriétés ....................................................................
Effets des opérations de base ............................................................
Cas des fonctions ...............................................................................
Applications ........................................................................................
—
—
—
—
—
2
2
3
3
4
3.
Formalismes mathématiques........................................................
—
5
4.
Opérations géodésiques et reconstruction ...............................
—
6
AF 1 515 – 2
5.
Filtrage morphologique .................................................................
—
8
6.
Transformation en tout-ou-rien et squelette .............................
—
10
7.
Segmentation morphologique ......................................................
—
11
8.
Quelques avancées récentes ........................................................
—
14
Pour en savoir plus..................................................................................
Doc. AF 1 515
a morphologie mathématique est rapidement devenue, depuis son introduction dans les années 1960 [10] [11] [21] [22], une théorie fondamentale
du traitement et de l’analyse d’images. Les opérateurs qu’elle propose permettent de fournir des outils pour toute la chaı̂ne de traitement d’images, des prétraitements (filtrage, rehaussement de contraste) à la segmentation et à l’interprétation de scènes. Une des caractéristiques importantes de ces opérateurs est
qu’ils sont non linéaires. Ils permettent de transformer les images, d’en extraire
des caractéristiques, des objets ou encore des mesures par une analyse associant propriétés des objets eux-mêmes (forme, taille, apparence…) et propriétés
du contexte (voisinage local ou relations avec d’autres objets).
Pour décrire de manière très synthétique la « boı̂te à outils » de la morphologie mathématique, il faut retenir les points suivants :
Parution : octobre 2012 - Dernière validation : juillet 2021
L
– les transformations sont non linéaires, elles sont fondées sur des opérations
de type sup et inf ;
– les transformations sont généralement non inversibles, et elles perdent
donc de l’information ; le travail du morphologue consiste alors à déterminer
les transformations adaptées à son problème, c’est-à-dire qui vont « simplifier »
les images en retenant l’information pertinente ;
– des propriétés analytiques et algébriques sont attachées aux opérations, ce
qui permet d’assurer des propriétés précises sur les objets ou images issues
des transformations ; c’est sur ces propriétés que l’on s’appuie pour enchaı̂ner
les transformations afin de résoudre un problème particulier ;
– des algorithmes sont également associés aux transformations, permettant
leur application de manière efficace.
Dans la suite, nous ferons de rapides rappels historiques, puis introduirons
les quatre opérations de base de la morphologie mathématique (dilatation, érosion, ouverture, fermeture), dans les cas d’images binaires et d’images à
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie
est strictement interdite. – © Editions T.I.
91
AF 1 515 – 1
2
Référence Internet
AF1515
MORPHOLOGIE MATHÉMATIQUE ET TRAITEMENT D’IMAGES ––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––
niveaux de gris. Quelques applications immédiates de ces opérations seront
illustrées. Nous reviendrons par la suite sur les fondements mathématiques
qui sous-tendent ces définitions, en particulier sur le cadre algébrique des treillis complets, qui est fédérateur et permet de définir des opérations plus générales. Nous étudierons ensuite quelques autres opérations utiles en pratique :
opérateurs géodésiques et reconstruction, filtres, transformation en tout-ourien, amincissement, épaississement et squelette. Puis nous décrirons les outils
morphologiques principaux de segmentation, avec en particulier la ligne de
partage des eaux. En guise de conclusion, nous citerons quelques avancées
récentes de la morphologie mathématique. Cet article s’appuie en partie sur
un cours publié dans [4] [6].
2
consulter les ouvrages de référence tels que [8] [14] [20] [21] [23].
Dans leur forme la plus usuelle, et la plus utile dans nombre
d’applications, ces opérations transforment les images en analysant un petit domaine autour de chaque point, défini par la translation d’un ensemble appelé élément structurant. Nous supposons
que les images sont définies dans un domaine S, qui peut être
ℝn , ℤn dans le cas discret, ou un sous-ensemble borné de ces
espaces en pratique. Dans le cas discret, le support de l’image est
souvent appelé trame, et en pratique on travaille en trame carrée
ou hexagonale pour des images à deux dimensions, en trame
cubique pour des images à trois dimensions. Dans la suite, on
note B l’élément structurant et Bx son translaté au point x
Bx = {x + b b ∈B } . Notons que l’origine de l’espace peut appartenir ou ne pas appartenir à B.
1. Un peu d’histoire
La morphologie mathématique a été développée à l’origine à
l’École des Mines de Paris. Elle repose essentiellement sur les travaux de G. Matheron effectués dans les années 1960-1970, puis sur
ceux de J. Serra et de son équipe au Centre de morphologie mathématique, aujourd’hui dirigé par F. Meyer. Depuis ces premiers développements, elle a pris une ampleur internationale et plusieurs
équipes s’y consacrent.
Développée à l’origine pour l’étude des matériaux poreux, la
morphologie mathématique trouve maintenant ses applications
dans de nombreux domaines du traitement d’images, aussi bien
2D que 3D, en biologie et cytologie quantitative, en imagerie médicale, en imagerie aérienne et satellitaire, en robotique et vision par
ordinateur, en contrôle industriel non destructif, dans les études
sur les documents et les œuvres d’art. Hors du domaine du traitement des images, on trouve des applications par exemple en analyse de données, sur des données représentées par des graphes,
des hypergraphes, des ensembles flous, etc., en logique, ou encore
en théorie des jeux.
(
Considérons d’abord le cas d’images binaires. La dilatation d’un
ensemble X ( X ⊆ S ) par un élément structurant B est définie par :
∨


δB ( X ) = X ⊕ B = {x + y x ∈ X , y ∈B } = x ∈S B x ∩ X ≠ ∅  ,


Elle a été développée initialement dans un cadre ensembliste, et
donc avec des applications immédiates en imagerie binaire, ainsi
que dans le cadre probabiliste des ensembles fermés aléatoires.
Puis elle a été généralisée aux fonctions numériques. Le cadre algébrique des treillis complets, qui unifie la morphologie mathématique pour différentes structures mathématiques, a été introduit
dans les années 1980 [21] et développé en particulier
dans [9] [16] [17].
(1)
∨
où
B
désigne le symétrique de B par rapport à l’origine
∨

 B = {− b b ∈B } . Cette définition est cohérente avec la vision
moderne de la morphologie mathématique reposant sur la notion
d’adjonction dans des treillis complets (voir section 3). Elle diffère,
dans le cas d’éléments structurants qui ne sont pas symétriques
par rapport à l’origine, de la définition originale où elle était définie
L’ampleur qu’ont pris cette théorie et ses applications en traitement d’images est attestée par l’existence, depuis 1993, d’une
conférence internationale sur le sujet. Celle de 2005 a ponctué les
40 ans de la théorie. Plusieurs logiciels de traitement d’images intègrent maintenant des opérations de morphologie mathématique,
ce qui permet également leur diffusion et leur application plus
large, aussi bien dans des laboratoires académiques que dans des
équipes industrielles.
∨
par X ⊕ B . L’opération ⊕ est aussi connue sous le nom d’addition
de Minkowski.
L’érosion de X par B est définie par :
εB ( X ) = {x ∈S Bx ⊆ X } .
2. Opérations de base
(2)
L’ouverture et la fermeture sont définies par composition, respectivement par :
2.1 Définitions et propriétés
Dans cette partie, nous introduisons les quatre opérations de
base de la morphologie mathématique : dilatation, érosion, ouverture et fermeture. Le lecteur souhaitant aller plus loin pourra
AF 1 515 – 2
)
γ B ( X ) = δB ( εB ( X )) ,
(3)
ϕB ( X ) = εB (δB ( X )) .
(4)
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie
est strictement interdite. – © Editions T.I.
92
Référence Internet
AF1515
––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––– MORPHOLOGIE MATHÉMATIQUE ET TRAITEMENT D’IMAGES
pour effet de boucher les trous des objets qui sont plus petits que
l’élément structurant. Elle régularise les contours des objets en
rajoutant des points dans les concavités étroites (dans lesquelles
ne peut pas se glisser l’élément structurant). On retrouve l’effet de
filtrage, dual de celui de l’ouverture.
Citons les principales propriétés de ces opérations :
– elles sont croissantes pour la relation d’ordre partiel ⊆ par rapport à l’ensemble à transformer : X ⊆ Y ⇒ δB ( X ) ⊆ δB (Y ) et de
même pour les trois autres opérations ;
– la dilatation et la fermeture sont croissantes par rapport à l’élément structurant, alors que l’érosion et l’ouverture sont
décroissantes ;
– la dilatation est extensive (X ⊆ δB ( X )) et l’érosion est antiextensive (εB ( X ) ⊆ X ) si et seulement si l’origine appartient à B ;
– l’ouverture est anti-extensive tandis que la fermeture est extensive (et elles ne dépendent pas de l’origine) ;
– la dilatation et l’érosion sont duales par rapport à la complé-
2.3 Cas des fonctions
Passons maintenant au cas des fonctions, afin de pouvoir manipuler des images à niveaux de gris. Soit f la fonction définie sur S
représentant les niveaux de gris en chaque point de S (à valeurs
dans un ensemble ordonné L) et g une fonction structurante (l’équivalent de l’élément structurant du cas binaire). Les définitions précédentes se généralisent sous la forme :
( )
mentation : (δB ( X )) = ε ∨ X c , où Xc désigne le complémentaire
c
B
de X dans S. De même l’ouverture et la fermeture sont duales ;
– la dilatation commute avec la réunion et l’érosion commute
avec l’intersection :
δB ( X ∪ Y ) = δB ( X ) ∪ δB (Y )
et
et
(5)
∀x ∈S , εg (f )( x ) = inf {f (y ) − g (y − x )} .
(6)
y ∈S
ε ( X ∩ Y ) = ε ( X ) ∩ ε (Y ) .
y ∈S
Ces propriétés sont importantes car elles sont à la base de la définition de formes plus générales de ces opérations, comme nous le
verrons dans la section 3. En revanche, on a seulement :
δB ( X ∩ Y ) ⊆ δB ( X ) ∩ δB (Y )
∀x ∈S , δg (f )( x ) = sup {f (y ) + g ( x − y )} ,
Le cas le plus utilisé en pratique est celui où g vaut 0 sur un support B et - • ailleurs, ce qui revient au cas d’un élément structurant
B défini comme un sous-ensemble de l’image. On a alors :
εB ( X ) ∪ εB (Y ) ⊆ εB ( X ∪ Y ) ;
∀x ∈S , δB (f )( x ) = sup f (y ) ,
(7)
∨
y ∈B x
– la dilatation et l’érosion vérifient une relation d’itérativité :
δB (δB ′ ( X )) = δB ⊕B ′ ( X ) et εB ( εB ′ ( X )) = εB ⊕B ′ ( X ), ce qui signifie que
les effets de ces transformations s’amplifient au fur et à mesure
que les opérations sont itérées ;
– au contraire, l’ouverture et la fermeture sont idempotentes : g B
(g B(X)) = g B(X) et ϕB (ϕB ( X )) = ϕB ( X ), et de manière plus générale, si
l’on désigne par Bn un élément structurant de taille n, on a :
(
ϕB (ϕB
)
(
(X )) = ϕB (ϕB
)
(X )) = ϕB
γ Bn γ Bm ( X ) = γ Bm γ Bn ( X ) = γ Bmax n ,m ( X )
n
m
m
n
(
)
max (n ,m
∀x ∈S , εB (f )( x ) = inf f (y ) .
L’ouverture et la fermeture se définissent par composition, comme
dans le cas binaire.
Notons qu’il est équivalent de dilater directement la fonction (ce
qui est plus efficace en pratique) ou de dilater ses seuils. Par exemple pour la dilatation on a : (dB (f))l = dB (fl), où f λ = x ∈S f ( x ) ≥ λ ,
et
{
}
{
}
et δB (f )( x ) = sup λ ∈L x ∈ δB (fλ ) . Cette propriété assure la cohérence entre le cadre fonctionnel et le cadre ensembliste.
(X ) ;
)
– si Bn est la boule de rayon n d’une distance d, alors la dilatation
par Bn s’exprime comme le seuil de la fonction distance :
{
(8)
y ∈Bx
Les propriétés des quatre opérations dans le cas fonctionnel sont
les équivalents de celles du cas binaire, en remplaçant les opérateurs ensemblistes par leurs équivalent (∩ par le min ou l’inf, ∪
par le max ou le sup, ⊆ par ≤…). Seul le lien avec la fonction distance ne peut pas s’étendre au cas d’images à niveaux de gris,
puisqu’il n’y a pas de notion d’objet et de complémentaire dans
ce cas.
}
δBn ( X ) = x ∈S d ( x , X ) ≤ n ,
et de même pour l’érosion, en prenant cette fois la distance au
complémentaire de X. Cette propriété permet de calculer très rapidement des dilatations et érosions de grande taille, en utilisant des
algorithmes rapides de calcul de distances [7].
Les principaux effets de ces transformations sont les suivants.
Sur une image à niveaux de gris, la dilatation par un disque augmente les niveaux de gris, propage les maxima locaux des niveaux
de gris (dans une région correspondant à la taille et à la forme de
l’élément structurant). L’érosion d’une image à niveaux de gris par
un disque a pour effet de diminuer les niveaux de gris, et de propager les minima dans une région définie par l’élément structurant.
L’ouverture a pour effet d’écrêter les pics (si l’on considère le
sous-graphe de la fonction comme un relief, où f (x) s’interprète
comme une altitude au point x) qui sont plus étroits que l’élément
structurant. La fermeture a l’effet dual de l’ouverture : elle comble
les vallées qui sont plus étroites que l’élément structurant. En pratique, les éléments structurants sont choisis en fonction de la forme
et de la taille des parties à supprimer ou à conserver après une
transformation.
2.2 Effets des opérations de base
Les effets de ces opérations peuvent être résumés comme suit.
La dilatation par un disque a pour effet d’augmenter la taille des
objets selon la taille du disque, de relier entre elles les composantes proches et de boucher les petits trous (plus petits que l’élément
structurant au sens de l’inclusion). La dilatation par un segment
centré à une de ses extrémités a pour effet d’étendre l’objet dans
la direction du segment. L’érosion par un disque a les effets suivants : l’objet est diminué selon la taille de l’élément structurant,
les composantes connexes de l’objet plus petites que l’élément
structurant (toujours au sens de l’inclusion) sont supprimées, les
parties des objets reliées par des isthmes plus fins que l’élément
structurant sont déconnectées. L’ouverture a pour effet de supprimer les parties des objets plus petites que l’élément structurant, et
de régulariser les contours en supprimant les petites excroissances
(trop fines pour pouvoir contenir l’élément structurant). C’est l’effet
de filtrage décrit par propriétés algébriques de croissance et
d’idempotence (voir section 5). Elle ne réduit pas systématiquement toutes les structures comme le fait l’érosion. La fermeture a
La figure 1 illustre les quatre opérations sur une image montrant
les vaisseaux sanguins de l’œil. Des dilatations avec des éléments
en forme de losange (correspondant à la 4-connexité sur la trame
carrée), de carré (correspondant à la 8-connexité) et de disque
approché permettent d’illustrer l’influence de la forme de l’élément
structurant. Les éléments structurants élémentaires (de taille 1)
sont illustrés à la figure 2. Les maxima sont par exemple propagés
selon la taille et la forme de l’élément structurant. L’exemple
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie
est strictement interdite. – © Editions T.I.
93
AF 1 515 – 3
2
Gagnez du temps et sécurisez vos projets
en utilisant une source actualisée et fiable




RÉDIGÉE ET VALIDÉE
PAR DES EXPERTS
MISE À JOUR
PERMANENTE
100 % COMPATIBLE
SUR TOUS SUPPORTS
NUMÉRIQUES
SERVICES INCLUS
DANS CHAQUE OFFRE
 + de 340 000 utilisateurs chaque mois
 + de 10 000 articles de référence et fiches pratiques
 Des Quiz interactifs pour valider la compréhension
SERVICES ET OUTILS PRATIQUES



Articles Découverte
Questions aux experts*
Archives
Info parution
Dictionnaire technique multilingue
La possibilité de consulter
Les meilleurs experts techniques
Technologies anciennes et versions Recevez par email toutes les nouveautés
45 000 termes en français, anglais,
et scientifiques vous répondent des articles en dehors de votre offre
antérieures des articles
de vos ressources documentaires
espagnol et allemand
*Questions aux experts est un service réservé aux entreprises, non proposé dans les offres écoles, universités ou pour tout autre organisme de formation.
Les offres Techniques de l’Ingénieur
INNOVATION
• Éco-conception et innovation responsable
• Nanosciences et nanotechnologies
• Innovations technologiques
• Management et ingénierie de l’innovation
• Smart city  Ville intelligente
MATÉRIAUX
• Bois et papiers
• Verres et céramiques
• Textiles
• Corrosion – Vieillissement
• Études et propriétés des métaux
• Mise en forme des métaux et fonderie
• Matériaux fonctionnels. Matériaux biosourcés
• Traitements des métaux
• Élaboration et recyclage des métaux
• Plastiques et composites
MÉCANIQUE
• Frottement, usure et lubrification
• Fonctions et composants mécaniques
• Travail des matériaux – Assemblage
• Machines hydrauliques, aérodynamiques et
thermiques
• Fabrication additive – Impression 3D
ENVIRONNEMENT – SÉCURITÉ
• Sécurité et gestion des risques
• Environnement
• Génie écologique
• Technologies de l’eau
• Bruit et vibrations
• Métier : Responsable risque chimique
• Métier : Responsable environnement
ÉNERGIES
• Hydrogène
• Ressources énergétiques et stockage
• Froid industriel
• Physique énergétique
• Thermique industrielle
• Génie nucléaire
• Conversion de l’énergie électrique
• Réseaux électriques et applications
GÉNIE INDUSTRIEL
• Industrie du futur
• Management industriel
• Conception et production
• Logistique
• Métier : Responsable qualité
• Emballages
• Maintenance
• Traçabilité
• Métier : Responsable bureau d’étude / conception
ÉLECTRONIQUE – PHOTONIQUE
• Électronique
• Technologies radars et applications
• Optique – Photonique
TECHNOLOGIES DE L’INFORMATION
• Sécurité des systèmes d’information
• Réseaux Télécommunications
• Le traitement du signal et ses applications
• Technologies logicielles – Architectures des
systèmes
• Sécurité des systèmes d’information
AUTOMATIQUE – ROBOTIQUE
• Automatique et ingénierie système
• Robotique
INGÉNIERIE DES TRANSPORTS
• Véhicule et mobilité du futur
• Systèmes aéronautiques et spatiaux
• Systèmes ferroviaires
• Transport fluvial et maritime
MESURES – ANALYSES
• Instrumentation et méthodes de mesure
• Mesures et tests électroniques
• Mesures mécaniques et dimensionnelles
• Qualité et sécurité au laboratoire
• Mesures physiques
• Techniques d’analyse
• Contrôle non destructif
PROCÉDÉS CHIMIE – BIO – AGRO
• Formulation
• Bioprocédés et bioproductions
• Chimie verte
• Opérations unitaires. Génie de la réaction
chimique
• Agroalimentaire
SCIENCES FONDAMENTALES
• Mathématiques
• Physique Chimie
• Constantes physico-chimiques
• Caractérisation et propriétés de la matière
BIOMÉDICAL – PHARMA
• Technologies biomédicales
• Médicaments et produits pharmaceutiques
CONSTRUCTION ET TRAVAUX PUBLICS
• Droit et organisation générale de la construction
• La construction responsable
• Les superstructures du bâtiment
• Le second œuvre et l’équipement du bâtiment
• Vieillissement, pathologies et réhabilitation du
bâtiment
• Travaux publics et infrastructures
• Mécanique des sols et géotechnique
• Préparer la construction
• L’enveloppe du bâtiment
• Le second œuvre et les lots techniques
www.techniques-ingenieur.fr
 CONTACT : Tél. : + 33 (0)1 53 35 20 20 - Fax : +33 (0)1 53 26 79 18 - E-mail : [email protected]
Powered by TCPDF (www.tcpdf.org)
Téléchargement