T E C H N O LO G I E S D E L' I N F O R M AT I O N Ti385 - Technologies radars et applications Géomatique Réf. Internet : 42641 | 2nde édition Actualisation permanente sur www.techniques-ingenieur.fr Tec h n ique s de l ’I n gé ni eur La plus impor tante ressource documentaire scientifique et technique en français Une information fiable, claire et actualisée Validés par un comité scientifique et mis à jour en permanence sur Internet, les articles Techniques de l’Ingénieur s’adressent à tous les ingénieurs et scientifiques, en poste ou en formation. Outil d’accompagnement de la formation et de la carrière des ingénieurs, les ressources documentaires Techniques de l’Ingénieur constituent le socle commun de connaissances des acteurs de la recherche et de l’industrie. Les meilleurs experts techniques et scientifiques Plus de 200 conseillers scientifiques et 3 500 auteurs, industriels, chercheurs, professeurs collaborent pour faire de Techniques de l’Ingénieur l’éditeur scientifique et technique de référence. Les meilleurs spécialistes sont réunis pour constituer une base de connaissances inégalée, vous former et vous accompagner dans vos projets. Une collection 100 % en ligne • Accessibles sur www.techniques-ingenieur.fr, les dernières nouveautés et actualisations de votre ressource documentaire • Les articles téléchargeables en version PDF Des services associés Rendez-vous sur votre espace « Mon compte » en ligne pour retrouver la liste des services associés à vos droits d’accès et les utiliser. Des services associés Pour toute information, le service clientèle reste à votre disposition : Tél : 01 53 35 20 20 l Fax : 01 53 26 79 18 l Mail : [email protected] III Cet ouvrage fait par tie de Technologies radars et applications (Réf. Internet ti385) composé de : Gestion du spectre électromagnétique Réf. Internet : 42590 Systèmes radars Réf. Internet : 42591 Applications radars Réf. Internet : 42592 Géomatique Réf. Internet : 42641 Sur www.techniques-ingenieur.fr • Saisissez la référence Internet pour accéder directement aux contenus en ligne • Retrouvez la liste complète des ressources documentaires IV Cet ouvrage fait par tie de Technologies radars et applications (Réf. Internet ti385) dont les exper ts scientifiques sont : François LE CHEVALIER Directeur scientifique à Thalès systèmes aéroportés, Professeur à l'université de Delft Michel KASSER Ancien directeur de l’ENSG (Ecole Nationale des Sciences géographiques), Professeur Responsable de la filière Géomatique à l'école d'ingénieurs d'Yverdon-les-Bains (Suisse), Président de l’IGSO (Ingénieurs Géomètres de Suisse Occidentale) Sur www.techniques-ingenieur.fr • Saisissez la référence Internet pour accéder directement aux contenus en ligne • Retrouvez la liste complète des ressources documentaires V Les auteurs ayant contribué à cet ouvrage sont : Pierre-Alain AYRAL Pour les articles : H7415 – H7416 Murielle GEORGESLEROY Billy POTTIER Pour l’article : H7416 Pour l’article : IN215 Fayçal REJIBA Vincent BARRAS Gregory GIULIANI Pour l’article : RAD7420 Pour l’article : P4250 Daniel BATTU Michel KASSER Pour l’article : E7560 Pour les articles : C5010 – RAD7418 – R1384 Pour l’article : TE5228 Florence SAGNARD Isabelle BLOCH Pour l’article : AF1515 Richard LAGABRIELLE Pour l’article : TE5228 Philippe SAINTMARTIN Pour l’article : TE6720 Pour l’article : C224 Michel DIAMENT Pour l’article : R1814 Jean-Pierre LENOBLE Pour l’article : R2345 Pierre H. FLAMANT Pour l’article : E4312 Sophie SAUVAGNARGUES Pour les articles : H7415 – H7416 Didier MASSONNET Pour l’article : TE6704 Yannick-Igor FOGUEDJOMBOU Laure NUNINGER Pour l’article : H7416 Pour l’article : IN215 Florian TENA-CHOLLET Pour l’article : H7416 Vincent THIERION Pour l’article : H7416 Rachel OPITZ Pour l’article : IN215 Sur www.techniques-ingenieur.fr • Saisissez la référence Internet pour accéder directement aux contenus en ligne • Retrouvez la liste complète des ressources documentaires VI Géomatique (Réf. Internet 42641) SOMMAIRE 1– Collecte et acquisition des données géographiques Réf. Internet Topographie. Topométrie. Géodésie C5010 11 Photogrammétrie RAD7418 15 Interférométrie Radar TE6704 19 Du GPS historique aux GNSS : utilisation pour le positionnement de haute précision R1384 23 Applications de la géolocalisation. Une technologie qui change le monde TE6720 27 Systèmes de communications par satellite E7560 31 Mesure du champ de pesanteur terrestre R1814 37 Mesures géophysiques en mer R2345 41 Géoradar - Principes et applications TE5228 49 Géophysique appliquée au génie civil C224 53 Géolidar pour l'étude des surfaces, de la biosphère et de l'hydrosphère E4312 59 Scanners laser terrestres. Des nuages pour la géomatique RAD7420 63 Lidar : technique de détection au service de l'archéologie IN215 67 2– Traitement informatique des données géographiques Réf. Internet Systèmes d'information géographique : outil d'aide à la gestion territoriale H7415 75 Systèmes d'information géographique : études de cas H7416 79 Partage de données environnementales P4250 85 Morphologie mathématique et traitement d'images AF1515 91 page page Sur www.techniques-ingenieur.fr • Saisissez la référence Internet pour accéder directement aux contenus en ligne • Retrouvez la liste complète des ressources documentaires VII Sur www.techniques-ingenieur.fr • Saisissez la référence Internet pour accéder directement aux contenus en ligne • Retrouvez la liste complète des ressources documentaires Géomatique (Réf. Internet 42641) 1 1– Collecte et acquisition des données géographiques Réf. Internet Topographie. Topométrie. Géodésie C5010 11 Photogrammétrie RAD7418 15 Interférométrie Radar TE6704 19 Du GPS historique aux GNSS : utilisation pour le positionnement de haute précision R1384 23 Applications de la géolocalisation. Une technologie qui change le monde TE6720 27 Systèmes de communications par satellite E7560 31 Mesure du champ de pesanteur terrestre R1814 37 Mesures géophysiques en mer R2345 41 Géoradar - Principes et applications TE5228 49 Géophysique appliquée au génie civil C224 53 Géolidar pour l'étude des surfaces, de la biosphère et de l'hydrosphère E4312 59 Scanners laser terrestres. Des nuages pour la géomatique RAD7420 63 Lidar : technique de détection au service de l'archéologie IN215 67 page 2– Traitement informatique des données géographiques Sur www.techniques-ingenieur.fr • Saisissez la référence Internet pour accéder directement aux contenus en ligne • Retrouvez la liste complète des ressources documentaires 9 1 10 Référence Internet C5010 Topographie. Topométrie. Géodésie par 1 Michel KASSER Professeur des Universités Ingénieur en Chef Géographe Directeur de l’École Supérieure des Géomètres et Topographes (Conservatoire National des Arts et Métiers) 1. 1.1 1.2 1.3 2. 2.1 2.2 2.3 2.4 Parution : mai 2013 - Dernière validation : juillet 2020 2.5 3. 3.1 3.2 3.3 Représentation de la surface terrestre .............................................. Surfaces de référence.................................................................................. Systèmes de coordonnées.......................................................................... 1.2.1 Coordonnées géographiques ............................................................ 1.2.2 Coordonnées rectangulaires planes ................................................. 1.2.3 Coordonnées cartésiennes tridimensionnelles................................ 1.2.4 Déviation de la verticale..................................................................... Représentations planes ou projections ..................................................... 1.3.1 Représentation ou projection Lambert ............................................. 1.3.2 Projection UTM (Universal Transverse Mercator ) ........................... 1.3.3 Projection stéréographique ............................................................... C 5 010 - 2 — 2 — 3 — 3 — 3 — 3 — 3 — 3 — 3 — 3 — 4 Méthodes de mesures géométriques ................................................. Propagation des ondes électromagnétiques dans l’atmosphère ............ 2.1.1 Vitesse de la lumière dans l’atmosphère.......................................... 2.1.2 Réfraction atmosphérique. Trajectoire d’une onde électromagnétique dans l’atmosphère ............................................. Mesures terrestres....................................................................................... 2.2.1 Mesures d’angles................................................................................ 2.2.2 Mesures électro-optiques de distances ............................................ 2.2.3 Mesures de dénivelées, ou nivellement ........................................... Méthodes de géodésie spatiale.................................................................. 2.3.1 Description du GPS (Global Positioning System ) ........................... 2.3.2 Radio-interférométrie non connectée (VLBI).................................... 2.3.3 Télémétrie laser sur satellites............................................................ 2.3.4 Autres systèmes de géodésie spatiale.............................................. Photogrammétrie......................................................................................... 2.4.1 Principe général .................................................................................. 2.4.2 Instruments employés........................................................................ 2.4.3 Exploitation d’images spatiales......................................................... Exemples de méthodes topographiques................................................... 2.5.1 Levés terrestres traditionnels (levés directs ) ................................... 2.5.2 Exemples ............................................................................................. — — — 4 4 5 — — — — — — — — — — — — — — — — — 5 6 6 7 10 12 12 12 13 13 13 13 14 14 14 14 15 Traitement et gestion des mesures .................................................... Acquisition et stockage des données......................................................... Logiciels de compensation ......................................................................... Systèmes d’information géographique (SIG) ........................................... — — — — 16 16 16 18 Pour en savoir plus........................................................................................... Doc. C 5 010 a géodésie a pour objet initial l’étude et la mesure de la forme générale de la Terre, de sa rotation, de son champ de pesanteur et des différents systèmes de référence employables pour se repérer. Par extension de langage, le géodésien est celui qui fournit des points d’appui connus par leurs coordonnées pour les travaux topographiques dont l’objet est ainsi de densifier considérablement ce canevas de référence. L Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Construction 11 C 5 010 − 1 Référence Internet C5010 TOPOGRAPHIE. TOPOMÉTRIE. GÉODÉSIE ____________________________________________________________________________________________________ 1 La topographie a pour objet la description et la représentation locale des formes de la surface de la Terre. Le topographe procède donc à des levés, soit en mesurant directement sur le terrain (mesures d’angles, de distances, ou GPS ; § 2.2 et 2.3.1), soit en exploitant les propriétés métriques d’images aériennes stéréoscopiques du sol (photogrammétrie). La topométrie représente l’ensemble des moyens géométriques employés pour effectuer des mesures de positions relatives de points. C’est donc la boîte à outils de base du topographe. Le travail du géomètre recouvre une série d’activités complémentaires mais étendues, allant de la topographie sous toutes ses formes à la cartographie (art qui consiste à représenter au mieux la topographie sous forme de cartes), et à tous les aspects techniques et juridiques de la définition de la propriété foncière. Important : en Topographie, Topométrie et Géodésie, les angles sont exprimés en degrés ou en grades et les pressions en millimètres de mercure. On rappelle les correspondances avec les unités légales : 1o = π /180 rad ; 1 gr = π /200 rad ; 1 mmHg = 133 Pa. 1. Représentation de la surface terrestre 1.1 Surfaces de référence La surface de la Terre ne s’écarte que de quelques dizaines de kilomètres de celle d’une sphère : cette surface est elle aussi parfois appelée topographie. Il s’agit à proprement parler de l’interface entre la partie solide de l’écorce terrestre et l’atmosphère ou les océans. Mais si l’on cherche à décrire cette surface, on est amené à s’intéresser au champ de pesanteur terrestre : en effet, la seule grandeur accessible en tout point est la direction de la verticale, qui est donc une référence obligée. Si l’on étudie le champ de pesanteur, champ en 1/r 2 comme le champ électrique par exemple, on pourra définir des surfaces équipotentielles dont l’espacement sera susceptible de varier d’un endroit à l’autre. Lorsque ces surfaces se rapprochent, et par analogie avec le champ électrique, le champ de pesanteur augmente, ce qui se traduit par des valeurs de g plus importantes que lorsque ces surfaces s’éloignent (une surface équipotentielle du champ de pesanteur n’a rien à voir avec une surface où g serait une constante). Une telle surface équipotentielle est partout perpendiculaire à la direction de la pesanteur, donc à la verticale locale, mais g n’y est pas uniforme. Si les océans n’étaient traversés d’aucun courant, s’ils étaient de densité constante, et s’ils étaient au repos, leurs surfaces décriraient des équipotentielles du champ de pesanteur. L’une de ces surfaces, proche en général du niveau moyen de la mer, a été prise pour origine des altitudes : on l’appelle géoïde. Le géoïde est assez voisin d’un ellipsoïde de révolution, par rapport auquel il présente des irrégularités plus ou moins corrélées avec la topographie, n’excédant pas 100 m. On recherche donc l’ellipsoïde qui est le plus proche du géoïde, et on privilégie cette nouvelle surface parce qu’elle se décrit mathématiquement par deux nombres seulement : le demi-grand axe a et le demi-petit axe b . On va donc repérer de manière fiable tout point par rapport à sa position sur l’ellipsoïde par trois nombres (par exemple une longitude, une latitude et une hauteur). Mais, pour beaucoup d’opérations, il faut en arriver à une représentation cartographique plane, permettant de travailler sur papier, et l’ellipsoïde n’est bien évidemment pas une surface développable. On va donc définir une dernière surface de référence, souvent cylindre ou cône (donc développable), et on déterminera une transformation amenant le point de l’ellipsoïde sur cette surface. Cette transformation est appelée représentation plane, et il s’agit fréquemment d’une simple projection, à tel point que le terme de projection désigne parfois, de manière générique et par abus de langage, toute représentation cartographique. Historique On peut retrouver des indices de travaux topographiques jusqu’à la plus haute antiquité (travaux hydrauliques, construction de grands édifices) et manifestement la définition de la propriété foncière était déjà source de conflits en Égypte ancienne ou en Mésopotamie, mais le grand essor de toutes ces techniques date du XVIIe siècle en Europe et surtout en France : à la mesure de la forme de la Terre sont attachés les travaux de l’Académie des Sciences, et si l’abbé Picard, dès 1660, a su développer des instruments de visée extrêmement précis, ce sont des hommes comme Bouguer, La Condamine, Clairaut, Huyghens, etc., puis les quatre générations de Cassini qui ont fait faire en guère plus d’un siècle des progrès absolument décisifs à la géodésie et à la cartographie. Il faut en retenir qu’entre 1760 et 1950, la précision des méthodes topométriques n’a même pas gagné un facteur 10, les seuls progrès significatifs étant dans le domaine de la facilité de mise en œuvre et dans l’ergonomie de ces techniques. Aujourd’hui, en France, la notion de réseau géodésique national (sur lequel tous travaux topographiques doivent s’appuyer pour toujours rester compatibles entre eux, avec 500 000 repères d’altitude de précision et 100 000 repères géodésiques) s’efface avec un positionnement spatial mondial précis et d’accès facile comme le GPS (§ 2.3.1), et la notion de carte de base, document de base commun à tous types d’activités localisées et permettant la synergie entre travaux ultérieurs, disparaît devant le besoin omniprésent de bases de données numériques nationales ou mondiales, réclamées pour les applications des systèmes d’informations géographiques, et dont les performances semblent devoir disqualifier pour longtemps tout autre moyen de représentation de la surface topographique. En France donc, le Cadastre a commencé à numériser tous les plans cadastraux, alors que l’Institut Géographique National a engagé, depuis 1986, la majorité de ses moyens dans plusieurs bases de données nationales, dont la BDTopo d’une précision métrique et la BDCarto de précision décamétrique. C’est dire que dans ce secteur professionnel, tout change (de nouveau) avec une grande rapidité. C 5 010 − 2 Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Construction 12 Référence Internet C5010 ___________________________________________________________________________________________________ TOPOGRAPHIE. TOPOMÉTRIE. GÉODÉSIE ou les angles soient quelconques. On appelle altération linéaire la variation relative d’une longueur passant de l’ellipsoïde à la représentation cartographique, et correction de réduction à la corde, ou correction de dV (avec V visée), la correction angulaire qu’il convient d’apporter à une visée ramenée sur l’ellipsoïde lorsqu’elle est représentée sur le plan cartographique (figure 1). Nous présenterons ici les projections les plus courantes : Lambert (employée pour la carte de France), UTM (Universal Transverse Mercator, très employée dans le monde) et stéréographique (emploi fréquent pour des travaux scientifiques). De très nombreux ellipsoïdes nationaux, voire régionaux, ont été établis par le passé, chacun approximant au mieux le géoïde sur sa zone de travail, et parfaitement confondu avec lui au point fondamental (pour la France, l’ellipsoïde est dit de Clarke et date de 1880, le point fondamental étant au Panthéon à Paris). Aujourd’hui, on a souvent recours à un ellipsoïde général dit international, ce qui simplifie les conversions de coordonnées qui restent malgré tout, d’un pays à un autre et pour des travaux frontaliers par exemple, un véritable problème technique et une source considérable d’ennuis. Les demi-grand axe et demi-petit axe de l’ellipsoïde international (adopté en 1924) valent respectivement 6 378 388 et 6 356 912 m. 1.3.1 Représentation ou projection Lambert 1.2 Systèmes de coordonnées La représentation Lambert utilisée pour la France consiste à projeter, avec pour pôle le centre de la Terre, les points de l’ellipsoïde de référence sur un cône ayant pour axe celui de la Terre, ce cône étant tangent à l’ellipsoïde le long d’un parallèle de latitude Φ0 . Dans ces conditions, on constate qu’à la distance d de ce parallèle, une longueur projetée sur ce cône subit une altération linéaire de valeur m, et R étant le rayon moyen de courbure de l’ellipsoïde en ce lieu : Pour décrire la position d’un point A à la surface de la Terre, différents systèmes de coordonnées sont utilisés. 1.2.1 Coordonnées géographiques – Longitude de A : angle dièdre entre deux plans contenant l’axe de rotation de la Terre, l’un contenant A et l’autre un point G de référence. – Latitude de A : angle entre la verticale de A et le plan de l’équateur. – Altitude ellipsoïdique : distance de A à l’ellipsoïde. – Altitude : différents systèmes existent, tenant plus ou moins compte du champ de pesanteur, et assez proches d’une distance de A au géoïde. C’est surtout la surface servant de référence qui la différencie de la précédente. d2 m = 1 + ------------2R 2 Cette valeur de m est malencontreusement toujours supérieure à 1. On a donc jugé utile de multiplier a priori m par une valeur constante inférieure à l’unité, souvent notée e0 , et qui vaut en France : e 0 = 0,999 877 4 de sorte que l’altération linéaire varie à peu près entre – 12 et + 16 cm/ km lorsqu’on passe de la proximité du parallèle de latitude Φ 0 à celle correspondant à Φ 0 + 1,5 gr, ce qui aboutit à des valeurs dont la moyenne est centrée sur 0. Grâce à cet artifice, il y a deux parallèles le long desquels l’altération linéaire est nulle (à environ 1 gr de Φ 0 ), et la France est découpée en 4 zones, ayant pour largeur chacune une bande de 3 gr en latitude. La zone I est centrée sur Φ 0 = 55 gr, la zone II sur 52 gr, la zone III sur 49 gr et la zone IV (pour la Corse) sur 46,85 gr. Les formules détaillées décrivant la projection Lambert peuvent être trouvées dans de nombreux ouvrages, par exemple [1]. Il faut préciser par ailleurs qu’en France, le méridien de référence (Paris) est à 2,596 921 3 gr à l’est de Greenwich. L’image de ce méridien est parallèle à l’axe des Y. Les coordonnées Lambert pour la géodésie sont obtenues en attribuant à l’intersection du méridien de référence et du parallèle de latitude Φ 0 les coordonnées X = 600 km et Y = 200 km, sauf pour la zone IV (Corse) où X = 234 358 m et Y = 185 861,669 m. L’axe des Y est parallèle au Nord lorsqu’on est sur ce méridien. Les coordonnées Lambert pour la cartographie sont les mêmes, excepté la valeur de Y qui est augmentée de 1 000 km pour la zone I, 2 000 km pour la zone II, 3 000 km pour la zone III et 4 000 km pour la zone IV. 1.2.2 Coordonnées rectangulaires planes Employées sur le plan de représentation plane, l’axe des Y est dans la direction du Nord pour au moins un méridien donné, et l’axe des X lui est perpendiculaire : X est croissant vers l’Est et Y vers le Nord. 1.2.3 Coordonnées cartésiennes tridimensionnelles Elles sont fréquemment utilisées comme intermédiaire de calcul lorsqu’on emploie des méthodes de positionnement spatial. Les axes X et Y sont orthogonaux dans le plan de l’équateur, l’axe Z est confondu avec l’axe de rotation terrestre moyen. 1.2.4 Déviation de la verticale Ce terme désigne l’écart angulaire existant à un endroit donné entre la verticale physique du lieu (direction de la pesanteur matérialisée par exemple par un fil à plomb) et la direction orthogonale à la surface de l’ellipsoïde passant par ce point. Lorsqu’elle est inconnue (cas fréquent), c’est une cause d’imprécisions dans les calculs de triangulation dans lesquels, par nécessité, on est amené à supposer que l’on travaille sur l’ellipsoïde et non sur le géoïde. De plus, on emploie fréquemment le système Lambert II étendu, qui représente une extension du Lambert II (zone II) à toute la France, avec bien sûr des altérations linéaires beaucoup plus fortes. Dans la projection Lambert, l’image des parallèles donne des arcs de cercle centrés sur S (figure 2) et celle des méridiens, des droites concourantes en S. 1.3 Représentations planes ou projections 1.3.2 Projection UTM (Universal Transverse Mercator ) La représentation cartographique du terrain sur un plan passe par l’intermédiaire de l’ellipsoïde. La représentation des points du terrain ramenés à l’ellipsoïde (par projection) sur la surface cartographique (qui est développable) peut prendre un grand nombre de variantes différentes, selon que l’on préfère que les angles entre deux visées soient conservés (représentations conformes), ou plutôt que les surfaces le soient (représentations équivalentes), ou que les surfaces En français, on utilise le terme de Mercator Transverse Universelle. Cette projection conforme est très employée dans le monde, en particulier pour les cartes internationales. C’est une projection, ayant pour pôle le centre de la Terre, de l’ellipsoïde sur un cylindre qui est tangent à celui-ci tout le long d’un méridien de longitude λ, et ceci sur une zone s’étendant entre les longitudes λ – 3o et λ + 3o, soit Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Construction 13 C 5 010 − 3 1 Référence Internet C5010 TOPOGRAPHIE. TOPOMÉTRIE. GÉODÉSIE ____________________________________________________________________________________________________ 1 donc sur un secteur de l’ellipsoïde de 6o de longitude. Hors de cette zone, on utilise un nouveau cylindre dont l’axe, compris dans le plan de l’équateur, est tourné lui aussi de 6o par rapport au précédent. Pour couvrir l’ensemble de la Terre, on emploie donc 60 fuseaux. Comme le rapport d’échelle serait ainsi toujours au moins égal à 1, mais jamais inférieur, on applique en outre un facteur d’échelle supplémentaire valant 0,999 6, ce qui fait que l’altération linéaire varie autour de l’unité, comme pour la projection Lambert. Les images des parallèles et des méridiens forment des faisceaux de courbes assez difficiles à calculer. Pour plus de détails, se reporter en [Doc. C 5 010] à la référence [1]. 1.3.3 Projection stéréographique Il s’agit d’une projection ayant pour pôle un point de la surface de la Terre, et l’ellipsoïde est alors projeté sur un plan tangent à celui-ci en un point diamétralement opposé au pôle de projection. Le cas le plus fréquent est celui de la projection stéréographique polaire, le pôle de projection étant l’un des pôles de l’ellipsoïde. Ce cas est employé en particulier pour compléter dans les zones polaires (latitudes supérieures à 80o) la projection UTM. Alors les images des parallèles sont des cercles et celles des méridiens un faisceau de droites concourantes au pôle, seul point par ailleurs où l’altération linéaire vaut 1. L’équateur est représenté en particulier par un cercle de rayon double de celui de la Terre. Cette projection est fréquemment employée pour des modèles simples représentant des phénomènes à la surface de la Terre, considérée alors comme une sphère : la projection stéréographique revient alors à une inversion (au sens géométrique) de la sphère. Citons, par exemple, le cas de la sismologie : les mécanismes au foyer sont analysés en utilisant une projection stéréographique. 2. Méthodes de mesures géométriques 2.1 Propagation des ondes électromagnétiques dans l’atmosphère Les phénomènes atmosphériques marquants et qui intéressent le topographe sont les phénomènes de réfraction (variations de l’indice de réfraction qui entraînent un changement de vitesse et de direction des ondes électromagnétiques) et de diffusion (interaction du rayonnement soit avec les molécules et les atomes constitutifs de l’air (diffusion Rayleigh), soit avec les aérosols et les petites poussières en suspension dans l’air (diffusion de Mie). La diffusion Rayleigh est liée intimement aux bandes d’absorption de l’ultraviolet ; elle est responsable de la couleur bleue du ciel et de la courbe enveloppe de la transmission atmosphérique totale vers le bleu et le vert (figure 3). La diffusion totale due à ces deux aspects est cause : — de l’atténuation d’un faisceau lumineux donné ; — de l’apport de lumière solaire parasite dans le champ de réception, qui se superpose au signal utile et qui représente un véritable bruit optique. Figure 1 – Réduction à la corde Figure 3 – Transmission atmosphérique pour une visibilité de 11 km Figure 2 – Projection Lambert C 5 010 − 4 Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Construction 14 Référence Internet RAD7418 Photogrammétrie par 1 Michel KASSER Professeur de géodésie Ancien directeur de l’ESGT et de l’ENSG Haute École d’Ingénierie et de Gestion du canton de Vaud, Suisse 1. 1.1 1.2 Historique : photogrammétrie et vision par ordinateur ............ Photogrammétrie ..................................................................................... Vision par ordinateur ............................................................................... 2. 2.1 2.2 2.3 2.4 — — — — 2 2 6 7 2.5 Principe général de la photogrammétrie ....................................... Vision stéréoscopique et acquisition des images ................................. Orientation interne ................................................................................... Orientation externe .................................................................................. Aérotriangulation, stéréopréparation et emploi de la géolocalisation lors de la prise de vues ........................................ Exploitation photogrammétrique ........................................................... — — 8 9 3. 3.1 3.2 3.3 Automatisation de la photogrammétrie ........................................ Extraction automatique des points d’intérêt ......................................... Auto-étalonnage des optiques ................................................................ Corrélation automatique ......................................................................... — — — — 9 9 10 11 4. 4.1 4.2 — — 11 11 4.3 4.4 Avenir de la photogrammétrie ......................................................... Nouvelles applications aériennes liées aux drônes .............................. Applications terrestres, levers linéaires (urbains, routiers, etc.) corrélation diachronique ......................................................................... Vision par ordinateur ............................................................................... Comparaison avec les scanners laser .................................................... — — — 11 11 12 5. Conclusions............................................................................................ — 12 6. Glossaire – Définitions ........................................................................ — 12 Pour en savoir plus ....................................................................................... RAD 7 418 - 2 — 2 — 2 Doc. RAD 7 418 a photogrammétrie est une technique de topométrie basée sur des mesures d’angles, figées lors des acquisitions d’images, et dont on se donne les moyens de reconstituer les valeurs en utilisant de façon très complète la connaissance de la géométrie exacte des images et des optiques employées pour les acquérir. En toute rigueur, l’exploitation de cette géométrie exige de gros moyens de calcul, mais pendant longtemps, ces calculs étaient effectués de façon optique et mécanique, ce qui rendait le matériel utilisé extrêmement onéreux, donc réservé à des entreprises hautement spécialisées. L’utilisation des moyens de calcul de plus en plus puissants a permis progressivement de reconsidérer toutes les étapes de traitement des images, et plusieurs productions utilisant la photogrammétrie peuvent être entièrement automatiques : tout particulièrement les modèles numériques de surface (MNS) et les orthophotographies. Les acquisitions d’images ayant de leur côté, elles aussi beaucoup progressé sous l’impact du développement des appareils photo grand public et des drônes autopilotés, il restait à capitaliser tout le savoir photogrammétrique dans des logiciels, et toute une nouvelle génération de progiciels est arrivée sur le marché, ne venant pas des producteurs traditionnels de matériels photogrammétriques. Ces outils permettent à des techniciens très peu au fait de la photogrammétrie, voire même de la topométrie, de procéder à des traitements avec une bonne efficacité, démocratisant beaucoup cette technologie. Ainsi, alors que les scanners laser ont créé toute une clientèle pour des nuages Parution : août 2015 - Dernière validation : juin 2021 L Copyright © –Techniques de l’Ingénieur –Tous droits réservés 15 RAD 7 418 – 1 Référence Internet RAD7418 PHOTOGRAMMÉTRIE ________________________________________________________________________________________________________________ 1 de points, est apparue une autre manière d’obtenir des nuages de points largement concurrentielle, basée sur des matériels et des logiciels très peu coûteux. C’est donc tout un ensemble technologique entièrement rénové qui doit être analysé, en étudiant par la même occasion certaines avancées issues de la vision par ordinateur, tout à fait fondamentales pour comprendre la situation atteinte. Beaucoup de perspectives sont ouvertes maintenant que tous les verrous techniques ont disparu. D’ailleurs divers travaux de recherche, dans des domaines connexes potentiellement usagers de cette technique, ont réinventé tout ou partie, par faute de publications accessibles. Quand une technique est ainsi portée par les seuls industriels, la partie récente en est bien souvent presque totalement couverte par le secret industriel. 1. Historique : photogrammétrie et vision par ordinateur 1.1 Photogrammétrie 1.2 Vision par ordinateur La photogrammétrie est une technique (§ 1.1 de [4]) qui a vu le jour très rapidement à la suite de l’invention de la photographie au XIXe siècle. Déjà au cours des siècles précédents, différents peintres avaient étudié la perspective en utilisant des dispositifs optiques simples : par exemple, Brunelleschi, Albert Dürer, etc. L’idée était déjà de fixer sur le papier une image aussi neutre, objective et conforme à la réalité que possible. C’est un domaine qui a vu le jour dans les années 1980. Il s’est développé dès que l’on a su numériser des images vidéo, et il couvre de nombreuses applications orientées vers le temps réel. On compte parmi celles-ci l’extraction automatique d’éléments dans l’image, d’abord, simplement les contours, puis des éléments de plus en plus évolués, tels que des objets connus (des pièces mécaniques empilées en vrac), cela allant jusqu’à des objets très complexes (reconnaissances de visages), et enfin, la volumétrie des objets visibles, à partir d’images prises de deux points de vues différents, et permettant un effet stéréoscopique. La vision par ordinateur trouve son sens évidemment dans le domaine de la robotique, l’objectif étant de permettre à une plate-forme autonome de cartographier en temps réel son environnement immédiat, avec une exigence de précision assez modeste, mais variable ; comme pour tout être vivant, le besoin de précision est d’autant plus grand que les objets sont proches, et la vision humaine est parfaitement adaptée à ce besoin. Par la suite, l’exploitation d’images pour mesurer les distances de différents objects ne fut qu’un simple réemploi de techniques de topographie, de type triangulation et intersection. Et comme les publications de ces techniques, dès le XVIe siècle, le montraient bien, les applications envisagées étaient d’abord de type militaire : comment ajuster le tir d’un canon, comment cartographier une place forte ennemie sans s’en approcher, etc. C’est Aimé Laussédat, jeune militaire polytechnicien qui, le premier imagina la « metrophotographie », l’emploi de photographies (inventées peu de temps auparavant) prises depuis des sites différents pour effectuer des mesures à distance et cartographier ainsi un objet ou un site. Le prototype fut celui de la façade des Invalides à Paris en 1849 : les applications au domaine architectural furent donc les premières à voir le jour. Puis, dès que Nadar produisit les premières images aériennes depuis un aérostat, et surtout lors de l’invention de l’aviation quelques décennies plus tard, les applications militaires devinrent le moteur de la photogrammétrie naissante. Et dès la fin de la première guerre mondiale, cartographier rapidement à partir de vues aériennes fut la principale préoccupation de la photogrammétrie, et ce de façon de plus en plus industrielle. Dans cette communauté règne une intense activité de recherche, poussée par des demandes industrielles très fortes, qui atteignent actuellement le grand public : citons par exemple, pour les appareils photos actuels, les mises au point automatiques qui localisent d’elles-mêmes la zone d’image sur laquelle elle doivent s’exercer, ou même mieux, la photo qui ne se déclenche que lorsque le sujet photographié sourit et ne ferme pas les yeux : une véritable prouesse. Mais dans les domaines techniques professionnels, la multiplication de la surveillance vidéo a contribué, à son tour, à susciter une demande considérable pour identifier de façon automatique, parmi des millions d’heures d’enregistrements, tel type d’objet, de véhicule, de visage, etc. Édouard-Gaston Deville, formé par Laussédat, devenu arpenteur en chef du Canada, produisit en 1896 le premier appareil de restitution stéréoscopique. La photogrammétrie, dénommée ainsi depuis 1893 par l’allemand Albrecht Meydenbauer qui en fit un grand usage en architecture, se développa en parallèle dans plusieurs pays, les relais industriels prennant naissance en Allemagne, Suisse, France, Autriche, Italie, etc., avec pour conséquences, en particulier : – une recherche de précision au meilleur niveau, afin de réaliser la meilleure cartographie possible avec un nombre minimal de photos ; – un travail avec un axe optique quasi vertical, et donc des photos à axes presque parallèles ; – un travail de restitution qui peut prendre beaucoup de temps, le délai entre la prise de vues et la cartographie résultante pouvant se chiffrer sans inconvénients en mois, voire en années ; – des développements qui, progressivement ont quitté le domaine académique (avec de nombreuses publications), pour devenir quasi exclusivement du domaine industriel, sans aucune publication. Cela s’est traduit dans les dernières décennies, lors du passage au numérique, par de véritables boîtes noires sans aucun moyen pour l’usager de savoir ce qu’il s’y faisait exactement. RAD 7 418 − 2 La photogrammétrie et la vision par ordinateur partagent donc indiscutablement une même recherche de mesure 3D à partir d’images permettant la stéréoscopie, mais leurs passés respectifs et leurs clientèles très différentes les ont amenés à se développer de façon complètement parallèle, avec peu de zones communes. 2. Principe général de la photogrammétrie 2.1 Vision stéréoscopique et acquisition des images 2.1.1 Aspects géométriques Le principe général est basé sur la perception humaine du relief par observation stéréoscopique. Dans le cas de la photogram- Copyright © –Techniques de l’Ingénieur –Tous droits réservés 16 Référence Internet RAD7418 ________________________________________________________________________________________________________________ PHOTOGRAMMÉTRIE métrie aérienne, un avion équipé d’une chambre de prise de vues vole au-dessus d’une région, de manière à ce qu’une partie du terrain figure sur au moins deux clichés correspondant à deux positions successives de l’avion. – enfin, utilisation des images stéréoscopiques localisées et orientées, sous diverses formes possibles : restitution (mesure de tous les objets spécifiés et identification de leur nature), orthophotographie (image corrigée des effets de perspective, recalculée pour être en tous points superposable à une carte), ou simple MNS (Modèle numérique de surface, obtenu par corrélation automatique des images). En observant simultanément un cliché avec un œil et le second avec l’autre œil grâce à un outil optique approprié (stéréoscope à miroirs, appareil de restitution, ordinateur équipé de lunettes spéciales, etc.), la zone de terrain vue sur les deux images apparaît en relief. La vision humaine permet en effet de voir en relief selon une large gamme de dispositions relatives de ces deux images. Mais si nous disposons ces dernières dans une position relative exactement semblable à celle qu’elles avaient au moment de la prise de vue, alors l’image stéréoscopique observée est une exacte homothétie du terrain réel photographié, pour autant que la chambre de prise de vue soit parfaite (c’est-à-dire qu’elle n’apporte aucune distorsion à l’image, on parle alors de chambre « métrique »), ou que la distorsion de l’image ait été corrigée. Pour exploiter cette scène stéréoscopique, l’appareil de restitution superpose à chaque image un pointeur, le « ballonnet », que la vision humaine interprètera comme un petit objet dont la position est déplaçable à volonté en hauteur au-dessus de l’image du terrain grâce à des commandes appropriées. 2.1.2 Vision humaine La vision humaine est une des bases de la photogrammétrie, il est donc utile d’en rappeler quelques aspects : – la représentation des couleurs par l’œil humain est obtenue en analysant les scènes selon trois canaux seulement, et pour cette raison les dispositifs restituant des couleurs (imprimerie, écrans vidéo) utilisent nominalement eux aussi seulement trois canaux (rouge, vert et bleu pour les photophores des écrans en synthèse additive, cyan, magenta et jaune pour les pigments servant de filtres pour l’imprimerie en synthèse soustractive, cf. § 1.3 de [1]). Ce n’est qu’avec la généralisation de l’imagerie numérique que l’on a pu aisément proposer un quatrième canal dans le proche infrarouge, très utile pour l’étude de la végétation, et très facile à obtenir, compte tenu de la sensibilité spectrale normale des capteurs CCD ou CMOS, basés sur du silicium. Ce n’est donc que depuis le début du XXIe siècle que des images 4 bandes sont devenues disponibles, pratiquement sans aucun surcoût ; – la mesure des distances par l’œil humain repose sur plusieurs mécanismes. La vision stéréoscopique est efficace dans la gamme de dimensions du corps humain, avec une précision qui décroît avec le carré de la distance, et au-delà elle est relayée par la mesure de l’angle apparent sous lequel sont vus les différents objets, dont le cerveau a identifié les dimensions auparavant. La résolution angulaire de l’œil humain est variable, mais elle n’est généralement rarement meilleure que 1 milliradian. Jusqu’à l’arrivée de la photogrammétrie numérique, la base de la mesure était l’œil, et donc toute la précision des mesures en dépendait : l’opérateur avait deux rôles, celui de pointer en 3D avec précision, et celui d’identifier les objets pointés. Pour la tache de pointer, il a depuis été utilement secondé par les outils numériques de corrélation, qui peuvent être beaucoup plus précis que la corrélation binoculaire effectuée par notre cerveau. La géométrie d’acquisition des images a donc pu évoluer depuis lors, autorisant des situations à faible rapport entre la distance inter-images et la distance à l’objet étudié (appelé rapport B/H, pour base/hauteur). C’est une évolution très avantageuse, car plus la distance inter-images est faible et moins il y a de zones cachées non vues en stéréo dans une scène donnée. L’opérateur aura donc pour travail de promener ce ballonnet dans l’image au contact de tous les objets à mesurer, pendant que l’appareil archivera toutes les informations numériques produites. Pour que l’image observée soit une copie exacte de l’objet mesuré, il faut contraindre un certain nombre de points dans l’image à se trouver à des positions relatives similaires aux leurs sur l’objet. Pour un couple stéréoscopique donné, on montre qu’il faut 5 points de coordonnées connues pour que l’image 3D soit parfaitement définie, et donc en pratique au moins 6 afin d’assurer un minimum de contrôles. Ces points peuvent être mesurés sur le terrain directement : cette opération est appelée stéréopréparation. Lorsque de nombreux couples stéréoscopiques sont enchaînés (bande de clichés aériens), le nombre de points terrain à mesurer peut être considérablement limité en analysant toute les contraintes géométriques qui se transmettent de cliché à cliché. Le processus repose sur l’extraction des points d’intérêt, faciles à identifier, puis a les mettre en correspondance dans les différentes images (points « homologues »), ce qui va engendrer ces contraintes géométriques nécessaires au calcul. Le processus numérique, qui exige une grosse puissance de calcul, désormais facilement accessible, s’appelle aérotriangulation. Par ailleurs, la manipulation des grandes quantités de données numériques extraites est résolue par des logiciels spécialisés, permettant la mise en forme finale des données sorties de l’appareil, la saisie des corrections en provenance des équipes de terrain (qui complètent les levers de toutes les informations non visibles sur les clichés et corrigent les points douteux, phase dite de complètement), et enfin le formatage et l’édition des données selon les besoins du client. 2.1.3 Acquisition d’images 2.1.3.1 Historique des caméras aériennes avant le numérique La séquence complète de traitement photogrammétrique des images peut finalement se résumer ainsi : Les premières photos aériennes ont été prises par Nadar sur Paris en 1858, et pendant plusieurs décennies les images ont été obtenues sur des plaques de verre, support évidemment très délicat d’emploi en avion. Le support film n’apparaît qu’après l’invention du cinéma à la fin du XIXe siècle, mais ne se généralisera sous le format 24 × 24 cm qu’au milieu du XXe siècle. Cette dimension deviendra une norme dans les décennies suivantes jusqu’à la fin de cette technologie au début du siècle suivant. Les spécifications des prises de vues aériennes prennaient aussi largement en compte les limitations dues à la sensibilité des films, le temps de pose étant limité par la vitesse de l’avion, ce qui exigeait pendant longtemps que le soleil soit haut dans un ciel clair. Cette situation impliquait des contrastes forts entre zones à l’ombre et celles au soleil, ce qui est peu favorable pour le travail d’exploitation, d’autant que la dynamique des films était trop réduite pour un post-traitement de rééquilibrage radiométrique. Curieusement ces exigences ont perduré même lorsque les chambres à compensation de filé dans les années 1990 (où le film est déplacé pendant le temps d’exposition de façon – tableau d’assemblage : position approximative de chaque image ; – orientation interne : identification des paramètres géométriques de l’acquisition d’image, comme la distance focale, la position de l’optique par rapport à la zone sensible, la distorsion de l’optique, etc. ; – identification des points d’intérêt dans chaque image ; – mise en correspondance de ces points et établissement de la liste des points homologues entre les différentes images ; – aérotriangulation et orientation externe, donnant les positions et orientations relatives des images ; – orientation absolue ou basculement : utilisation des points d’appui sur le terrain, positions GNSS de la caméra obtenues dans l’avion, etc. pour mettre l’ensemble à l’échelle et dans le système de référence désiré ; Copyright © –Techniques de l’Ingénieur –Tous droits réservés 17 RAD 7 418 – 3 1 1 18 Référence Internet TE6704 Interférométrie radar par 1 Didier MASSONNET Chef du projet PHARAO Centre National d’Études Spatiales, Toulouse, France 1. Principales propriétés des images radars ...................................... 2. Conditions de réalisation de l’interférométrie radar .................. — 5 3. Informations fournies par l’interférométrie radar ....................... — 6 4. Procédure de réalisation des interférogrammes .......................... — 9 5. Traitements complémentaires ........................................................... — 11 6. Éléments d’interprétation des données d’interférométrie ........ — 13 7. Applications et perspectives de l’interférométrie radar............ — 14 8. Interférométrie non conventionnelle............................................... — 17 9. Conclusion............................................................................................... — 18 — 18 10. Glossaire – Définitions ......................................................................... Pour en savoir plus ........................................................................................ TE 6 704 - 2 Doc. TE 6 704 ’interférométrie par radar, terme consacré par l’usage, désigne en réalité une technique de comparaison de la phase entre images radars. En effet, si la création d’une image radar (le traitement de synthèse d’ouverture) peut être considérée comme l’organisation d’une interférence constructive entre les différents échos recueillis, cette comparaison est essentiellement la soustraction des phases de deux images radars préalablement superposées géométriquement, à laquelle on soustraira d’autres éléments systématiques comme l’effet des trajectoires à l’origine des deux prises de vue, la topographie du terrain dans les limites de la connaissance qu’on en a, voire les prédictions de modèles de déformation de subsidence, séismes ou autres. Cette différence, l’interférogramme, est une image de longueurs, puisque la phase est directement reliée à la longueur d’onde utilisée par le radar. Elle est cependant ambiguë car elle ne donne que le reste de toute différence géométrique constatée en aller-retour entre les deux images modulo la longueur d’onde. Le nombre entier de longueurs d’onde présent dans la mesure doit être restitué par d’autres méthodes. Elle est en général précise puisque les conditions de rapport signal à bruit permettent souvent d’apprécier la phase à 10 degrés près, voire mieux, ce qui, selon la longueur d’onde du radar, peut correspondre à des précisions de l’ordre du millimètre. L‘interférométrie par radar, ou plus simplement interférométrie radar, peut calculer la topographie avec des précisions métriques, voire submétriques et révéler les déformations du sol ou des ouvrages d’art avec des précisions millimétriques. Elle contient également la différence des contributions de la variation de l’épaisseur atmosphérique lors des deux prises de vue, en général considérée comme un artefact plutôt gênant. Ce dernier est potentiellement révélateur de la pression atmosphérique, de la turbulence et du contenu en eau atmosphérique, mais sans aucune discrimination verticale. Parution : août 2015 - Dernière validation : juillet 2019 L Copyright © –Techniques de l’Ingénieur –Tous droits réservés 19 TE 6 704 – 1 Référence Internet TE6704 INTERFÉROMÉTRIE RADAR ___________________________________________________________________________________________________________ 1 L’usage de l’interférométrie radar s’est généralisé lorsque des satellites radars, notamment à partir de la mission ERS-1 (European Remote Sensing 1, lancé en 1991), ont permis d’établir une archive planétaire globale et homogène permettant des comparaisons avant et après un événement. Des missions dédiées, principalement la mission SRTM (Shuttle Radar Topography Mission) conduite en février 2000, ont permis d’établir une référence mondiale de modèles de terrains de précision moyenne. La technique est facile à mettre en œuvre et ne comprend que des opérations bien connues (corrélations d’images, ré-échantillonnages, soustractions et combinaisons linéaires) et des simulations géométriques simples destinées à traduire en différence de phase les conditions expérimentales connues telles que la trajectoire des porteurs et la topographie du terrain. Nous verrons que le déroulement de phase et les autres filtrages appliqués aux interférogrammes ne méritent pas l’importance qui leur a été accordée à l’aube de cette technique. En revanche, les techniques d’interprétations basées sur les logiques spatiales et temporelles des prises de vue restent primordiales, mais s’acquièrent facilement. L’interférométrie radar a conquis des domaines d’application de plus en plus variés. Elle peut donner lieu à des réalisations dédiées très performantes, mais reste principalement tributaire de la disponibilité massive et aisée des données produites par les missions spatiales embarquant des radars à synthèse d’ouverture. 1. Principales propriétés des images radars grès sur les puissances de calcul ont permis de généraliser le traitement numérique des données qui garantissait la reproductibilité parfaite des résultats. Que ce soit par le biais des programmes de recherche initiés par les agences spatiales ou par des circuits commerciaux, il est devenu très facile d’établir la liste des images disponibles sur un site donné, de connaître les orbites du satellite lors des prises de vue et donc de déterminer les caractéristiques attendues de la comparaison d’une paire d’images, telle que sa sensibilité à la topographie, puis de commander les images avant de les traiter. L’avènement concomitant d’Internet a contribué à cette facilité. 1.1 Sources de données Les instruments radars ont été placés sur des avions dès les années 1940, donc très peu de temps après leur invention, et la plupart des progrès en imagerie radar ont été accomplis à partir d’images aéroportées, y compris les premiers essais d’interférométrie radar [1]. Encore aujourd’hui, les systèmes aéroportés peuvent offrir une richesse de combinaisons unique entre interférométrie et polarimétrie, antennes multiples permettant divers types d’interférométrie (perpendiculaire et le long de la trace, voir § 7.5.3), longueurs d’onde multiples. En effet, la relative abondance de puissance d’un avion, sa charge utile importante, ses capacités d’enregistrement de données offrent de nombreuses possibilités. En contrepartie, l’avion produit des données dont la couverture est limitée avec une diversité des angles d’incidence importante en raison de la faiblesse du rapport entre son altitude de vol et la largeur de l’image. Ces possibilités existent encore avec les satellites d’aujourd’hui, qui offrent des modes divers (grand champ ou ScanSar par exemple), des angles de visée variés, voire des possibilités d’utiliser des polarisations variées. Il faut cependant être conscient que plus un satellite a de possibilités, moins il produit une base de données homogène, ce qui réduit la combinatoire offerte pour l’association interférométrique des images de l’archive. Les opérateurs de satellite veillent en général à maintenir une configuration basique pour produire une archive homogène globale. Par ailleurs les images de satellites identiques ou opérants sur la même bande de fréquence et sous le même angle d’incidence peuvent se combiner entre elles. Après l’essai prometteur, mais de courte durée, du satellite SEASAT en 1978 ou les expériences SIR (Shuttle Imaging Radar ) embarquées sur la navette spatiale [2], la décennie 1990 a vu l’explosion des applications de l’interférométrie radar, grâce aux premières missions de radar à synthèse d’ouverture de longue durée avec ERS-1 puis ERS-2 en Europe, J-ERS1 au Japon, et RadarSat au Canada. Ces satellites ont produit des bases de données d’image couvrant la quasi-totalité des terres émergées dans des conditions géométriques qui permettaient dans la plupart des cas de comparer par interférométrie des images acquises sur le même site à des dates différentes. Dans le même temps, les pro- TE 6 704 − 2 L’interférométrie a aussi suscité des missions dédiées, comme SRTM (Shuttle Radar Topography Mission) [3] qui a couvert l’essentiel des terres émergées en les observant simultanément par deux antennes radars en bande C séparées par un mât déployable de 60 m. Cette mission a permis quelques années plus tard la création d’un fichier topographique global de résolution moyenne disponible gratuitement. On peut encore citer les missions Tandem-ERS ou Tandem-X, qui ont permis ou permettent d’opérer deux satellites compatibles avec des écarts de survol d’un jour (ERS), très favorables aux applications sur les glaces Copyright © –Techniques de l’Ingénieur –Tous droits réservés 20 Référence Internet TE6704 ____________________________________________________________________________________________________________ INTERFÉROMÉTRIE RADAR continentales, ou de façon quasi simultanée (Tandem-X), essentiellement pour des objectifs topographiques [4]. Pour finir, des expériences d’interférométries limitées ont été tentées sur les instruments radars observant d’autres corps célestes (Vénus, Titan). suffisamment forte pour occulter toutes les autres. Le rayonnement diffus qui en résulte revient en partie vers le radar et présente une statistique particulière, dite de speckle (chatoiement). Les rayons quatre et cinq rencontrent des cibles situées à la même distance du radar. Elles seront donc irrémédiablement confondues dans le signal : c’est le phénomène de recouvrement (overlay ). Sur les images radars, les versants des montagnes qui font face au radar apparaissent écrasés. Le même phénomène existe au niveau élémentaire, pour les cibles « volumiques » pour lesquelles l’écho peut venir de cibles à différentes altitudes, par exemple une forêt dans laquelle l’onde pénétrera plus ou moins. Enfin, le sixième rayon illustre le masquage (shadowing ) : des parties du paysage sont géométriquement inaccessibles et ne retournent aucun écho. Seul le bruit de l’appareil est enregistré pour les distances situées entre les deux traits. 1.2 Propriétés radiométriques Les propriétés radiométriques des images radars sont largement abordées dans la littérature [TE 6 702] [5]. Nous n’en rappelons que les points essentiels. Sur la figure 1, nous avons rassemblé les principaux comportements des différentes cibles par rapport au radar. En radar monostatique, l’antenne d’émission est aussi l’antenne de réception donc la force du signal dépend de la capacité de la cible à renvoyer du signal dans la direction d’où il est venu. Par ailleurs les échos sont classés en distance par le temps mis par l’impulsion pour effectuer le trajet aller-retour. Le radar doit donc viser vers un côté pour éviter une ambiguïté entre les points à même distance du radar, mais à gauche ou à droite de la trajectoire. Dans ces conditions, nous considérons les situations décrites par la figure 1 et représentées par les différents rayons partant du radar en commençant par le plus vertical et en continuant dans le sens inverse des aiguilles d’une montre. Le radar se déplace perpendiculairement à la figure. Le premier rayon rencontre une surface très plate, par exemple une étendue d’eau calme. Celle-ci se comporte comme un miroir mais, comme le radar n’est pas en face du miroir, aucun signal ne revient vers lui. Ce type de surface ne sera pas vu et seul le bruit de l’instrument sera enregistré. Cependant, dès que l’eau est un peu agitée, une partie de l’écho pourra être reçue par le radar. Le deuxième rayon est typique de la plus grande efficacité possible : la double réflexion. C’est le principe du cataphote avec rebond sur des surfaces perpendiculaires entre elles qui renvoient l’écho vers sa source. Les réflecteurs radars sur les mâts des navires exploitent ce principe. Le troisième rayon est caractéristique de la cible la plus banale, qui mélange une multitude des cibles élémentaires au sol (cailloux, branches ou autres objets) dont aucune n’est Bien entendu, la longueur d’onde utilisée par le radar est importante. Elle donne l’échelle de tous les phénomènes. Une cible « élémentaire » en bande L (24 cm de longueur d’onde) peut s’avérer composée en bande X (3 cm). Il en est de même des profondeurs de pénétration dans les cibles. Dans certains cas, la bande L pourra atteindre le sol alors que la bande X sera arrêtée par le sommet de la végétation. Les longueurs d’onde utilisées par les instruments radars et les largeurs de bande associées sont strictement réglementées : outre les bandes X et L, on trouve la bande C vers 6 cm et les bandes Ka et Ku encore plus courtes que la bande X. Les bandes S (10 cm) et P (70 cm) restent exceptionnelles. 1.3 Propriétés géométriques Le radar envoie un signal radioélectrique de référence composé d’une amplitude et d’une phase sur une longueur d’onde porteuse avec une largeur de bande associée. Au retour, ce signal est mélangé avec la porteuse, subit un filtrage passe-bas, puis est échantillonné avec une fréquence au moins égale à la largeur de bande. Les échantillons ainsi produits sont toujours composés d’une amplitude et d’une phase. 6 5 4 3 1 2 Figure 1 – Schéma illustrant la géométrie en distance Copyright © –Techniques de l’Ingénieur –Tous droits réservés 21 TE 6 704 – 3 1 Référence Internet TE6704 INTERFÉROMÉTRIE RADAR ___________________________________________________________________________________________________________ Distance 1 B C A D0 T0 Azimut Taille d'antenne 2 échantillons Figure 2 – Schéma illustrant la synthèse d’ouverture et la géométrie des images radars L’échantillonnage du retour d’un écho produit une ligne d’échantillons rangés en distance. Au fur et à mesure de sa progression, qu’on appelle la direction de l’azimut, le radar envoie des impulsions au rythme de sa fréquence de répétition, ce qui produit les lignes successives de l’image. En termes mathématiques, nous pouvons dire que l’image radar est formée de nombres complexes dont la moyenne est nulle, alors qu’une image optique est formée de nombres positifs, proportionnels au nombre de photons reçus pour chaque pixel. Les données radars sont d’ailleurs habituellement représentées non pas par une amplitude et une phase, mais par une partie réelle et une partie imaginaire, qu’on appelle quelquefois canal « en phase » et canal « en quadrature ». La résolution initiale d’une image radar dans le sens d’avancement (azimut) est médiocre, car proportionnelle à la distance et au rapport de la longueur d’onde sur la longueur de l’antenne (limitation inévitable due à la diffraction). Avec des distances de l’ordre de 1 000 km et des rapports de l’ordre de 100, la résolution naturelle est de plusieurs kilomètres mais l’échantillonnage créé par la fréquence de répétition est bien plus serré. Les conditions d’échantillonnage imposent d’ailleurs d’acquérir au moins deux échantillons quand le porteur avance de la longueur de l’antenne, soit quelques mètres entre deux échantillons. La figure 2 symbolise l’évolution de la distance au radar d’une cible au sol. Les traits verticaux sont les instants des impulsions et les cercles différents exemples de la zone éclairée par l’antenne. Pour traiter cette cible, la synthèse d’ouverture consiste à fouiller tous les échantillons disponibles la concernant avec un filtrage adapté capable de détruire les contributions de tous les points au sol à l’exception de celui qui nous intéresse. La variation de distance par rapport au radar de cette cible se traduit par une variation de phase dans les différents échantillons, qui est annulée par le filtre. Les contributions de la cible, et d’elle seule, sont additionnées en phase. Ces différentes contributions ne comprennent pas nécessairement le moment où la cible passait au plus près du radar (cas A de la figure 2) car l’antenne pouvait regarder vers l’avant (cas B de la figure 2), on parlera de « Doppler moyen positif », ou vers l’arrière (« Doppler négatif », cas C de la figure 2) avec un décalage éventuellement supérieur à sa largeur. On comprend cependant que rien n’empêche le traitement de restituer le point ainsi obtenu à son endroit de passage au plus près T0 : c’est la restitution à Doppler zéro adoptée la plupart du temps. Les propriétés géométriques des images radars découlent d’une part, du principe d’imagerie en distance et d’autre part, du principe de synthèse d’ouverture. en distance et fréquence de répétition, ont avec la porteuse des rapports entiers ou fractionnaires qui ne sont affectés par aucune erreur. Ainsi, le rapport entre la longueur d’onde et la taille du pixel en distance est connu sans erreur. En second lieu, la contribution d’un point au sol est repérée par sa distance au radar et son temps de passage au plus près du radar par la restitution à Doppler zéro, et ce même si ce point au plus près n’a pas été éclairé par l’antenne. Imaginons par exemple un mur s’élevant perpendiculairement à l’avancement du satellite. Si l’antenne regarde un peu vers l’avant, l’image caractérisera la face avant du mur. Si l’antenne regarde vers l’arrière, ce sera la face arrière, qui présentera éventuellement un aspect différent. Cependant, dans les deux cas, l’image du mur sera située à son point de passage au plus près. Si la Terre est assimilée à une sphère, un point de l’image radar est donc l’intersection de trois surfaces : la sphère terrestre, la sphère centrée sur le radar au moment de la prise de vue du point et dont le rayon est la distance d’observation du point, enfin le plan perpendiculaire à la vitesse du satellite au moment de la prise de vue et qui contient la position du radar au même moment. Deux points correspondent à ces intersections, selon que le radar regarde à droite ou à gauche. Contrairement aux images optiques, ce positionnement ne fait appel à aucune mesure angulaire. Les propriétés géométriques des images radars sont elles aussi largement détaillées dans [TE 6 702] [5]. 1.4 Cas particulier du signal de phase Le pixel d’une image radar est caractéristique d’une surface correspondant à une tranche en distance, liée à la fréquence d’échantillonnage, et une tranche en azimut, correspondant à l’avancement du porteur entre deux répétitions de l’émission. Dans le cas le plus général, cette surface est constituée de très nombreuses cibles élémentaires qui contribuent à la formation de la valeur du pixel en ajoutant leurs amplitudes et phase propres, ces dernières étant de plus modifiées par les distances relatives des cibles à l’intérieur du pixel. Cette construction est fortement aléatoire et explique que même des pixels composés de cibles identiques et en nombre à peu près équivalent donnent des résultats différents qui se traduisent pour l’amplitude par le phénomène de speckle. La statistique de la phase correspond, quant à elle, à une répartition uniforme sur toutes les valeurs possibles. On ne voit pas pourquoi l’une d’entre elle serait privilégiée. L’utilisation classique des images radars consiste à rejeter le signal de phase et à effectuer une moyenne sur les pixels voisins, ce qui dégrade la résolution géométrique mais diminue la Les incertitudes de positionnement d’une image radar diffèrent totalement de celles d’une image optique. En premier lieu, le radar est une horloge dont la fréquence la plus élevée est celle de la porteuse, par exemple 10 GHz pour la bande X à 3 cm de longueur d’onde. Toutes les autres fréquences, fréquence d’échantillonnage TE 6 704 – 4 Copyright © –Techniques de l’Ingénieur –Tous droits réservés 22 Référence Internet R1384 Du GPS historique aux GNSS : utilisation pour le positionnement de haute précision par 1 Michel KASSER Ancien directeur de l’ESGT de l’ENSG et de la filière Géomatique à la HEIG-VD, Yverdon, Suisse 1. 1.1 1.2 1.3 1.4 1.5 2. 2.1 2.2 2.3 Historique et principes généraux des GNSS ................................... Historique .................................................................................................... Principes généraux des GNSS pour leur emploi en haute précision ...................................................................................... 1.2.1 Constellations GNSS ......................................................................... 1.2.2 EGNOS et les compléments aux GNSS ........................................... Stations GNSS permanentes (RGP) .......................................................... Types de récepteurs GNSS haute précision et grand public .................. Méthodes de calcul des signaux GNSS en haute précision .................... Systèmes de référence employés et contraintes opérationnelles ............................................................ Réseaux anciens ......................................................................................... Référentiels modernes de la géodésie, ITRF et WGS 84 ......................... Contraintes opérationnelles ....................................................................... R 1 384v3 - 2 — 2 — — — — — — 3 3 5 5 5 6 — — — — 7 7 7 8 3. 3.1 3.2 Exemples d’utilisation ........................................................................... Surveillance d’ouvrages d’art et mesure de déformations du sol .......... Un chantier ancien typique : test en charge par GPS d’un pont de grande taille ........................................................................................... — — 9 9 — 10 4. Conclusion ................................................................................................ — 11 5. Sigles, notations et symboles ............................................................. — 12 Pour en savoir plus .......................................................................................... Doc. R 1 384v3 es GNSS (Global Navigation Satellite System) représentent un moyen de positionnement devenu fondamental depuis le début du XXIe siècle. Initialement, les usages ont commencé avec le GPS mis au point par l’armée américaine, dont la conception date des années 1970, et sont devenus réellement opérationnels (industrialisation des récepteurs, nombre de satellites en service…) depuis le début des années 90. Puis d’autres systèmes spatiaux de même type, russe (Glonass), chinois (Beidou/Compass), européen (Galileo, seul système purement civil) ont atteint, eux aussi, un caractère pleinement opérationnel. Les GNSS forment aujourd’hui un système de positionnement extrêmement employé par une large gamme d’usagers techniques (navigation aérienne, navigation automobile, travaux des géomètres, génie civil…) mais aussi et surtout par le grand public (un récepteur GNSS est souvent inclus dans les téléphones portables : guidage de piétons, localisation de photos, navigation automobile, etc.). La gamme d’exactitude des GNSS est très variable selon les technologies utilisées, du centimètre jusqu’à quelques mètres. Parution : mai 2022 L Copyright © – Techniques de l’Ingénieur – Tous droits réservés 23 R 1 384v3 – 1 Référence Internet R1384 DU GPS HISTORIQUE AUX GNSS : UTILISATION POUR LE POSITIONNEMENT DE HAUTE PRÉCISION _________________________________________________ 1 Cet article présente des utilisations des GNSS pour des mesures de haute précision, limitées jusqu’ici à des contextes purement professionnels, mais qui deviennent désormais accessibles au grand public. L’historique du positionnement par satellites permet tout d’abord de comprendre la situation actuelle et d’anticiper celle des prochaines décennies. Les problèmes occasionnés par l’emploi des divers systèmes de référence sont évoqués et les procédés de mesure, les différents types de matériels et les limitations d’utilisation sont analysées. Une illustration typique est présentée, celle de l’auscultation d’un ouvrage d’art. ce service, et qu’aucun système opérationnel ne pouvait être basé dessus. Le fait d’accéder au cm en temps différé et sans aucun accès aux codes de cryptage n’avait pas du tout été envisagé. 1. Historique et principes généraux des GNSS Au début des années 1990, le paysage technique s’est mis à évoluer très vite. Dans le domaine industriel, les premiers circuits intégrant sur une puce la réception du signal GPS, pour un coût voisin de 1 €, apparaissent sur le marché. Immédiatement, de petits récepteurs GPS grand public sont diffusés, destinés à la randonnée et à la navigation de plaisance. Les pilotes de petits avions commencent également à s’en servir, malgré les recommandations inverses des autorités des États-Unis, puisque les émissions GPS risquaient à tout moment d’être inaccessibles pour des applications civiles. Et rapidement est arrivé le moment où, si ces signaux avaient été interrompus subitement, c’étaient probablement plusieurs centaines d’avions sur le territoire des États-Unis qui auraient été perdus : l’armée ne pouvait donc plus faire ce qu’elle voulait sans créer un risque politique majeur. 1.1 Historique L’ère spatiale commence en 1957, avec le lancement du premier satellite Spoutnik (URSS). Le satellite émet un simple signal radio pendant plusieurs semaines. Ce signal détectable par tous est observé par les forces militaires américaines. Mesurant l’effet Doppler sur ce signal, très rapidement l’armée américaine imagine et met au point un dispositif mondial de localisation pour sa marine et le guidage de ses missiles : le système Transit est ainsi opérationnel dès le milieu des années 1960, avec une exactitude de plusieurs hectomètres et un temps de réponse de plusieurs heures. L’étape suivante, toujours militaire, voit les développements parallèles aux États-Unis et en URSS de systèmes de précision métrique en temps réel, appelés GPS (Global Positioning System, États-Unis) et Glonass (Global Navigation Satellite System, URSS). Les premiers satellites sont lancés dès la fin des années 1970, ces opérations ne suscitant guère d’intérêt dans le monde civil puisque les signaux émis étaient cryptés et donc inutilisables en dehors des armées et de leurs alliés. À noter que les approches technologiques de la partie spatiale sont longtemps restées très différentes entre les États-Unis et l’URSS, la capacité soviétique de lancement de satellites était tellement développée que la norme était de faire des lancements très fréquents (plusieurs dizaines par an), avec des satellites à courte durée de vie : pour les Glonass, trois ans seulement. En parallèle, des avancées étaient obtenues. Par exemple, avec la possibilité de se localiser instantanément même avec une précision limitée à 100 m, la nécessité de mettre les cartes dans un format numérique est apparue : pour le grand public, que faire de coordonnées fournies, s’il n’y a pas de bases de données géographiques associées ? Le GPS en mode différentiel avec une précision centimétrique restait donc seulement utilisé par le public très limité des géomètres et les géodésiens. Le système était également mis en œuvre dans des applications très spécifiques, par exemple comme dispositif universel de synchronisations d’horloges, comme les transactions bancaires. Puis, les données nécessaires devenant disponibles, le GPS est devenu de plus en plus utilisé pour de nombreuses applications grand public. En parallèle, la navigation aérienne commerciale cherchait par tous les moyens à avoir le droit de s’en servir : les autorités concernées ont donc décidé de se donner la possibilité de « qualifier » en temps quasi réel les signaux envoyés : pour un avion commercial dans une phase critique (atterrissage sans visibilité par exemple), le principe est que, si le GPS se met à donner des coordonnées fausses, il faut organiser une chaîne d’informations fiable pour que le pilote le sache immédiatement. Pour que cette « intégrité » du signal soit disponible, toute une logistique a alors été mise en place, avec des satellites géostationnaires, et un réseau de stations au sol, le tout fonctionnant sans aucune collaboration avec les militaires opérateurs du GPS. Au début des années 1980, des radioastronomes ont imaginé de traiter ces émissions radio GPS des satellites Navstar (dénomination de l’ensemble des satellites GPS), comme s’il s’agissait de radiosources, donc de signaux considérés comme totalement aléatoires. En corrélant a posteriori ces mêmes signaux reçus et enregistrés par deux antennes dans deux sites différents sur le principe de la VLBI (voir ci-après), ils ont rapidement prouvé la possibilité d’en déduire la distance entre ces deux antennes avec une précision centimétrique : le mode différentiel du GPS était né. Très rapidement, divers industriels ont commencé à mettre sur le marché des récepteurs GPS destinés à de telles mesures différentielles, d’abord à destination des géodésiens au sein des instituts géographiques nationaux chargés, dans chaque pays, de mettre à disposition un système de référence géodésique (en France, l’IGN). Ensuite le marché s’est ouvert aux géomètres, les prix des matériels baissant très régulièrement. Cependant, le développement et l’utilisation du GPS étant destinés à des applications militaires, son utilisation avec des performances optimisées ne pouvait pas être garantie pour des applications civiles. Ainsi, les applications militaires agréées bénéficiaient d’une précision de localisation voisine de 1 m alors que les applications civiles n’avaient accès qu’à des modes dégradés, par exemple avec une précision de localisation de 100 m. De plus, les autorités menaçaient d’interrompre ce service à tout moment. Mais cette situation provoquait un certain agacement de la part des propriétaires du GPS, l’armée des États-Unis, qui entendait bien rappeler qu’elle pouvait à tout moment interrompre R 1 384v3 – 2 Les États prenant conscience de leur dépendance vis-à-vis des autorités militaires des États-Unis, deux grandes entités politiques ont alors décidé de lancer leurs propres systèmes de géolocalisation, Galileo en Europe, Beidou en Chine. Le système russe Glonass a été mis en veilleuse à la chute du communisme en 1991 et n’a pu être de nouveau opérationnel que deux décennies plus tard. Les développements industriels se sont poursuivis de manière intense. Pour les récepteurs de haute précision, destinés aux géodésiens et aux géomètres, le nombre de canaux intégrés sur une puce est monté à plusieurs centaines, avec la capacité de réception des quatre GNSS, et en outre celle d’autres constellations sans couverture mondiale, tels IRNSS (Inde) et QZSS (Japon). Ce nombre très important de canaux permet la réception simultanée de tous les satellites en visibilité (un nombre de 50 est fréquemment atteint), sur leurs trois Copyright © – Techniques de l’Ingénieur – Tous droits réservés 24 Référence Internet R1384 __________________________________________________ DU GPS HISTORIQUE AUX GNSS : UTILISATION POUR LE POSITIONNEMENT DE HAUTE PRÉCISION fréquences. En outre, la gestion optimisée des canaux disponibles permet un temps initial de verrouillage particulièrement bref sur chaque signal reçu. À noter également que de nombreux développements algorithmiques ont permis : – un calcul des ambiguïtés entières (voir ci-après) extrêmement rapide, un point très important pour la productivité des géomètres ; – une possibilité de calcul de précision centimétrique en point isolé, sans besoin d’une liaison avec des stations proches du RGP (réseau GNSS permanent, voir ci-après) : le PPP (positionnement ponctuel précis, ou Precise Point Positioning), nouvelle méthode qui ne nécessite un accès qu’à des données mondiales, concernant les corrections à apporter à chaque signal de satellite reçu (voir ci-après). 1 Autres développements industriels : dans le domaine des puces à destination du grand public, la réception des quatre GNSS est très fréquente (par exemple plus de 95 % reçoivent au moins GPS et Galileo), parfois aussi toutes les bandes de fréquences émises, et parfois aussi la phase des ondes porteuses : l’accès à des localisations de précision décimétrique, peut-être même centimétrique, est donc ouvert au grand public. 1.2 Principes généraux des GNSS pour leur emploi en haute précision 1.2.1 Constellations GNSS ■ Nous allons d’abord détailler le principe de fonctionnement du GPS, puis nous verrons les autres systèmes formant les GNSS, et leurs différences avec ce premier cas. Un ensemble de 30 satellites « Navstar » (30, afin de garantir un effectif opérationnel de quatre en permanence sur chacun des six plans orbitaux), lancés par l’armée américaine à partir de 1978, orbite vers 20 200 km d’altitude (figure 1). Ceux-ci émettent en permanence des signaux radioélectriques sur des porteuses (les mêmes pour tous les satellites) à des fréquences de 1,2236 GHz (appelée « L2 »), 1,57542 GHz (appelée « L1 ») et 1,17645 GHz (appelée « L5 ») pour lesquels chaque bit d’information est émis à une date extrêmement bien connue, grâce à l’emploi, dans chaque satellite, d’un ensemble d’horloges atomiques. Ces bits décrivent les paramètres de position de tous les satellites GPS. Ils servent à moduler la phase des ondes porteuses, aux côtés de divers niveaux de codes pseudoaléatoires (certains sont d’accès public : le code C/A, les codes I5 et Q5, alors que d’autres (Y et M) sont cryptés et donc confidentiels), qui permettent d’identifier chaque satellite. Ces signaux sont délivrés avec un débit de l’ordre de 10 Mbit/s, ce qui conduit à une émission à spectre large et donc à une bonne insensibilité aux émissions parasites. les secondes). La mesure sur les codes est beaucoup moins précise que celle effectuée sur la phase (les bits du code C/A sont émis chaque microseconde, deux bits sont donc distants de 300 m dans l’espace, alors qu’un tour de phase correspond à 20 cm environ, soit une longueur d’onde de porteuse à 1,5 GHz), mais la mesure de phase a, par contre, l’inconvénient d’être fondamentalement ambiguë et de souffrir d’une perte de continuité à chaque défaut de réception du signal, même extrêmement bref. Au niveau du sol, l’usager emploie un récepteur dont le travail consiste à observer avec exactitude la date de réception de ces mêmes bits, et à décoder ceux-ci. Pour ce faire, le récepteur effectue une corrélation entre les signaux reçus et les codes pseudoaléatoires, caractéristiques de chaque satellite, et qu’il connaît. Lorsque la corrélation maximale est obtenue, l’écart entre le code théorique et le code observé produit directement les messages transmis par le satellite (n° du satellite, paramètres de l’orbite et de l’horloge de bord, modèle grossier de l’état de l’ionosphère, paramètres d’orbite de tous les autres satellites). Cette corrélation maximale est ensuite maintenue par un asservissement qui permet, si on le souhaite, de mesurer en continu la phase des ondes porteuses de L1, L2 et L5. Si cet asservissement se fait avec une bande passante étroite, le temps d’initialisation du verrouillage sera long mais le rapport signal/bruit sera élevé, alors que, si le temps d’initialisation est très bref, ce sera souvent au prix d’une moindre exactitude (pouvant atteindre un ordre de grandeur selon les types de matériels). La mesure de base peut donc se faire pour chaque fréquence à deux niveaux, soit uniquement par datation des bits formant certains codes (typiquement le C/A, pour Coarse/ Acquisition, code public destiné à tous les modes de réception), soit en y rajoutant la mesure du nombre de tours de phase de l’onde porteuse à chaque instant de mesure (par exemple toutes Le principe de calcul est le suivant : ce décalage de référence de temps entre celui de l’ensemble des satellites (appelé « temps GPS », extrêmement stable) et celui du récepteur étant noté δt, les temps d’arrivée des bits émis par chaque satellite lors de leur arrivée dans le récepteur sont comparés aux instants d’émission de ceux-ci (instants parfaitement connus en temps GPS). Si δt était nul, on déduirait de ces différences de temps les distances entre les satellites reçus et le récepteur : celui-ci se trouverait ainsi à l’intersection des sphères centrées sur ces satellites, sphères dont les rayons seraient ces distances mesurées. En pratique, comme δt n’est pas nul, les distances obtenues sont différentes de la valeur théorique, on les appelle « pseudodistances », les différences étant toutes égales à c × δt (c = vitesse de la lumière). On écrit donc les relations traduisant les pseudodistances entre le récepteur et au moins quatre satellites (et en pratique beaucoup plus), on les linéarise et on obtient, par moindres carrés, les trois coordonnées spatiales inconnues du récepteur ainsi que δt. Ainsi, dès que le récepteur est localisé, sa référence de temps locale devient automatiquement le temps GPS, à 1 µs près environ. Figure 1 – Constellation nominale des 24 satellites GPS opérationnels (en pratique, il y a des satellites supplémentaires pour suppléer aux pannes possibles) Le fonctionnement général du système est le suivant : les satellites sont tous recalés sur la même échelle de temps ; par contre, le récepteur ne dispose pas au départ d’une heure précise. Il y a donc quatre paramètres inconnus au niveau du récepteur ; ses coordonnées x, y et z ainsi que son décalage temporel avec l’échelle de temps des satellites. On observe donc simultanément au moins quatre satellites, ce qui permet de calculer la position du récepteur dès que l’on connaît celle des satellites. Ce type de fonctionnement, compte tenu des différentes limites physiques du système, peut donner en temps réel une exactitude Copyright © – Techniques de l’Ingénieur – Tous droits réservés 25 R 1 384v3 – 3 1 26 Référence Internet TE6720 Applications de la géolocalisation Une technologie qui change le monde par 1 Philippe SAINT-MARTIN Parution : février 2014 - Dernière validation : septembre 2015 Consultant – Institut télécom, 4icom (Paris) 1. 1.1 1.2 1.3 Nouvel âge de la géolocalisation.................................................... Géolocalisation au cœur de l’histoire moderne ................................... Impact sur la société............................................................................... Convergence technologique .................................................................. 2. 2.1 2.2 2.3 2.4 Géolocalisation dans le transport .................................................. Suivi du trafic maritime.......................................................................... Optimisation de la chaîne logistique..................................................... Écotaxe poids-lourd................................................................................ Automobiles ............................................................................................ — — — — — 2 2 3 4 4 3. 3.1 3.2 3.3 Applications terrestre et scientifique ........................................... Génie civil et topographie ...................................................................... Géodésie et géologie.............................................................................. Environnement........................................................................................ — — — — 8 8 9 9 4. 4.1 4.2 4.3 4.4 Révolution du smartphone et des objets connectés................. Technologies employées ....................................................................... Géolocalisation facteur de rupture........................................................ Sport et bien-être .................................................................................... Réalité augmentée .................................................................................. — — — — — 10 10 11 11 11 5. 5.1 5.2 5.3 5.4 5.5 5.6 « Big Data » géolocalisé ................................................................... Techniques utilisées ............................................................................... « Crowd sourcing » des bornes WiFi .................................................... Quelques applications « Big Data »....................................................... Mise à jour des cartographies ............................................................... Planification de l’espace......................................................................... Big Data pour Big Marketing .................................................................. — — — — — — — 12 12 14 14 15 15 15 6. 6.1 6.2 Émergence du géo-commerce ......................................................... Premières applications de centres commerciaux ................................ Publicité géo-localisée............................................................................ — — — 16 17 17 7. 7.1 7.2 Santé connectée.................................................................................. Détection périmétrique........................................................................... Bracelet GPS et mobilité des personnes à risque ................................ — — — 18 18 18 8. 8.1 8.2 De Big Data à Big Brother ................................................................. « Big Brothers are watching us »........................................................... Avis de la CNIL ........................................................................................ — — — 19 19 19 9. Conclusions et perspectives ............................................................ — 19 Pour en savoir plus ....................................................................................... Copyright © – Techniques de l’Ingénieur – Tous droits réservés 27 TE 6 720v2 - 2 — 2 — 2 — 2 Doc. TE 6 720v2 TE 6 720v2 – 1 Référence Internet TE6720 APPLICATIONS DE LA GÉOLOCALISATION _______________________________________________________________________________________________ 1. Nouvel âge de la géolocalisation • De nouvelles pistes s’ouvrent également dans le domaine de l’intelligence artificielle, comme le positionnement par reconnaissance d’image. ■ Irruption des plateformes 1 1.1 Géolocalisation au cœur de l’histoire moderne Ces technologies seules sont insuffisantes. Des plateformes performantes sont nécessaires pour les mettre en œuvre et les exploiter, avec notamment : – des systèmes d’exploitation multitâches et mobiles ; – la miniaturisation des composants, notamment des processeurs et des mémoires ; – l’explosion de la puissance de calcul disponible ; – le déploiement des réseaux mobiles haut-débit ; – la création et la mise à jour de cartographies numériques précises et exhaustives, et de contenus géolocalisés. Les animaux et les plantes, bien avant l’espèce humaine, ont développé une capacité souvent surprenante et incroyablement précise à se positionner dans l’espace et le temps. L’humanité a dû attendre quelques millions d’années pour disposer des technologies lui permettant de les égaler. De l’astrolabe antique jusqu’au GPS d’aujourd’hui, en passant par la boussole, le sextant, le gyroscope et le satellite, celles-ci ont accompagné et même souvent initié son développement économique, scientifique et social tout au long de notre ère. Tout cela a rendu les technologies de positionnement exploitables à un coût marginal négligeable, dans des environnements divers, et sur l’ensemble de la surface du globe. Mais, il faut attendre que la physique quantique nous révèle les secrets de l’horloge atomique pour que le GPS initie le mouvement de démocratisation que nous connaissons aujourd’hui, et mette la géolocalisation à la porter du plus grand nombre. Des « savoir-faire » existants, comme la correction d’erreur des GNSS (GPS différentiel), la numérisation et la diffusion de cartographie, le calcul d’itinéraire, etc.... ont été mis en œuvre dans des conditions économiques et ergonomiques performantes, grâce à cette remarquable convergence de technologies. 1.2 Impact sur la société L’amélioration des performances des techniques de géolocalisation a été l’un des facteurs du déclenchement de la mondialisation et de l’émergence du capitalisme entrepreneurial moderne. Les développements récents des technologies numériques créent un contexte nouveau dans lequel la géolocalisation, historiquement cantonnée au voyage et au transport, est placée au cœur d’une explosion d’applications et de services inédits. 2. Géolocalisation dans le transport L’aide au voyage et au transport des marchandises et des personnes, que ce soit pour répondre à des impératifs économiques, scientifiques ou militaires, a été et reste l’un des premiers moteurs d’innovation. Cette révolution est comparable à celle qui a suivi la démocratisation de la mesure du temps. L’introduction de la montre portable, qui donne à tous l’accès à l’heure à la minute près, a modifié en profondeur la société et l’économie au 19e siècle. De même, le smartphone, support essentiel de la diffusion des technologies numériques, n’a que quelques années d’existence. 2.1 Suivi du trafic maritime Les marins ont été les premiers utilisateurs des technologies de géolocalisation. Ce n’est qu’à l’aube du 21e siècle que les GNSS ont ouvert le champ à des applications beaucoup plus diverses, et ce, bien que le GPS trouve son origine dans les besoins de la marine militaire américaine. Mais, on perçoit déjà que la géolocalisation s’insinue dans tous les processus de la vie sociale, économique et même privée des individus. Disponible à faible coût, à tout instant et en tout lieu, elle contribue à améliorer le confort, la sécurité, l’efficacité, la productivité, et apporte de nouveaux services. ■ L’utilisation de la géolocalisation aujourd’hui à de multiples enjeux : de répondre – prévention des risques liés aux phénomènes naturels : Elle a parallèlement un aspect rassurant dans l’univers numérique en constante mutation qui est le nôtre. Elle ramène l’humain au contact du réel. Elle établit un lien entre le monde physique, où notre corps s’épanouit, et l’univers virtuel d’internet et du numérique, dans lequel notre esprit vagabonde de plus en plus souvent. • courants, • hauts fonds, • bancs de sable mouvants, • perturbations météo, • tempêtes, 1.3 Convergence technologique • ouragans, La démocratisation de la géolocalisation dont nous bénéficions aujourd’hui est le résultat de la convergence remarquable de progrès réalisés dans divers domaines, pendant les vingt dernières années. • brouillard, • vagues meurtrières ; – sécurité du trafic : prévention des collisions entre navires à l’entrée des ports ; – secours en mer : appel, repérage, organisation et coordination ; – réduction des coûts : possibilité de suivre avec précision une route optimale prenant en compte les courants et les vents dominants ; – gestion et suivi du fret maritime ; – pêche en mer : localisation des zones de pêche et suivi des activités ; – plaisance et sport nautique : sécurité et suivi des bateaux en course. ■ Diverses technologies Les technologies de positionnement se sont modernisées. • Certaines, déjà anciennes comme le gyromètre, l’accéléromètre ou le compas magnétique, trouvent, grâce à la miniaturisation des composants et la baisse de leurs coûts, de nouvelles possibilités d’intégration, notamment dans les smartphones. • D’autres comme les GNSS, le positionnement par WiFi, Bluetooth, réseau mobile, QR code, RFID ou NFC, constituent de véritables ruptures technologiques. TE 6 720v2 – 2 permet Copyright © – Techniques de l’Ingénieur – Tous droits réservés 28 Référence Internet TE6720 ________________________________________________________________________________________________ APPLICATIONS DE LA GÉOLOCALISATION 1 Figure 1 – Récepteur AIS de plaisance (Standard Horizon ) et logiciel professionnel (EuroNav) Figure 2 – Boîtier de géolocalisation pour conteneur ConLock (Crédit Global Tracking Technology) – d’ouverture de porte anormale ; Les systèmes utilisés à partir des années 1970 sont multiples et complémentaires. Ils tendent aujourd’hui à converger vers l’utilisation des GNSS et d’un moyen de communication approprié à l’utilisation ciblée : satellite, réseau cellulaire ou transmission hertzienne (VHF). – d’immobilisation prolongée dans un lieu non autorisé ; – de document de transport électronique. Ils permettent d’améliorer la sécurité des marchandises, de simplifier les procédures de dédouanement. Ils restent opérationnels quel que soit le mode de transport (camion, trai,n bateau) et suivent en continu le trajet effectué (figure 2). ■ L’AIS (Automatic Identification System ), en particulier, constitue une innovation majeure dans la gestion et la sécurité du trafic maritime. Composé d’un récepteur GPS et d’un émetteur/récepteur VHF, il permet de communiquer en temps réel position, cap et vitesse aux navires environnants, ainsi qu’aux centres de gestion du trafic en mer (CROSS) et portuaire. 2.2 Optimisation de la chaîne logistique Introduit et géré par l’OMI (Organisation maritime internationale), ce système s’impose : – aux navires de commerce internationaux de tonnage supérieur à 300 ; – aux navires de transport de passagers ; – aux bateaux de plaisance de catégorie B. La miniaturisation permet aujourd’hui aux unités plus petites (pêche et plaisance) de s’équiper de récepteurs et d’améliorer leur sécurité en mer à moindre coût (figure 1). Le faible coût d’utilisation du GPS et des réseaux de communication de données de type GPRS a permis aux entreprises de transport, même les plus modestes, de gérer leur flotte de véhicules et de planifier leur chargement de façon optimale. La chaîne logistique dans son ensemble s’est reconfigurée autour d’entrepôts plus importants et centralisés. Cette optimisation du système logistique permet, entre autres, de livrer l’Europe de l’Ouest en 24 h à partir d’un seul centre de stockage. L’e-commerce a été un des grands bénéficiaires de ces gains de temps et de flexibilité. Le déploiement de l’ADSL, au début des années 2000, a fourni l’ergonomie et la réactivité indispensables au marketing et à la prise de commande par internet. Mais, c’est la géolocalisation et les services associés qui ont permis de fiabiliser et de raccourcir les temps de livraison... et de retour éventuel des marchandises. ■ Les conteneurs de marchandises sont progressivement équipés de boîtiers combinant un récepteur GPS et une radio GPRS (moins de 1 % à l’échelle mondiale fin 2012, mais forte progression attendue). Ces boîtiers combinent les fonctions : – de géolocalisation ; – de détection d’une mise en mouvement ; Copyright © – Techniques de l’Ingénieur – Tous droits réservés 29 TE 6 720v2 – 3 Référence Internet TE6720 APPLICATIONS DE LA GÉOLOCALISATION _______________________________________________________________________________________________ 1 Figure 3 – Équipement embarqué et portique de contrôle du système Ecotaxe 2.3 Écotaxe poids-lourd Vente annuelle de système de navigation routière et pénétration - Europe de l’Ouest L’environnement est devenu, en une décennie, l’une des préoccupations majeures des politiques publiques. La loi dite « du Grenelle de l’Environnement » a trouvé avec la géolocalisation un moyen de mettre en œuvre un des ses principaux objectifs : transférer une partie du fret routier vers d’autres moyens de transport plus favorables à l’environnement (rail, fluvial...). Smartphone 50 50 % Portable Seconde monté 10 % 0 0% 20 20 0 20 12 10 20 10 20 % 20 08 20 06 30 % 04 30 0 La solution retenue pour mettre en œuvre l’Ecotaxe impose à tous les véhicules, dont le poids est supérieur à 3,5 t, de s’équiper d’un équipement embarqué contenant un récepteur GNSS et un module GSM-GPRS. Le processus consiste à valider, au moyen du récepteur GNSS, un point de passage pour chaque tronçon routier emprunté par le véhicule, et à comptabiliser la longueur du tronçon. Les données sont régulièrement transmises par réseau mobile GPRS à un centre de traitement qui calcule la taxe en fonction de la distance et des caractéristiques du véhicule (longueur, nombres d’essieux, type de transport....). La lutte contre la fraude est assurée par des portiques automatiques équipés de caméras, de détecteurs et de bornes de communication RFID (identification par radio-fréquence) installés sur certains axes stratégiques, qui vérifient que les poids-lourds sont bien équipés d’un boîtier actif et correctement configuré selon les caractéristiques du véhicule (figure 3). Pénétration 02 ■ Principe technologique 40 % Intégré (OEM) 20 mio unitées 40 La loi prévoit de taxer les poids-lourds en fonction des kilomètres parcourus. Non seulement sur autoroute, comme c’est déjà le cas en France et dans d’autres pays européens, comme l’Allemagne ou la Suisse, mais également sur une partie du réseau secondaire (routes nationales et grandes départementales). 20 ■ Une loi au service de l’environnement Source : psm2012 Le taux de pénétration de la navigation automobile est évalué à près de 60 %. Figure 4 – Vente annuelle de navigation routière et pénétration en Europe de l’Ouest Une décennie plus tard, début 2000, le gouvernement Clinton donne enfin, au grand public, accès à la précision « militaire » du système GPS (une dizaine de mètres en terrain ouvert). Cette décision ouvre alors la voie à une nouvelle génération de systèmes, portables, beaucoup moins chers que leurs aînés intégrés d’origine par les constructeurs. La navigation automobile, avec des prix d’entrée de gamme à moins de 100 €, devient alors un vrai marché de masse, qui poursuit aujourd’hui son développement avec les applications sur smartphones (figures 4 et 5). 2.4 Automobiles 2.4.1 Systèmes de navigation La navigation automobile est sans nul doute la première application de la géolocalisation moderne au service du grand public. Les premiers systèmes, lancés dès fin 1994 par BMW, Philips, Daimler Bosch puis Renault, utilisaient, à défaut d’une couverture GPS continue : – des capteurs de roue ; – un compas magnétique ; – un algorithme de corrélation cartographique (map matching ). TE 6 720v2 – 4 60 % 60 2.4.2 Aide à la conduite Ce premier succès dans l’utilisation de la géolocalisation a donné de nouvelles idées au constructeurs et équipementiers automobiles. Une toute nouvelle gamme d’applications, axées sur l’assistance et l’aide à la conduite (ADAS en anglais pour Copyright © – Techniques de l’Ingénieur – Tous droits réservés 30 Référence Internet E7560 Systèmes de communications par satellite 1 par Daniel BATTU Ingénieur des télécommunications honoraire et consultant 1. 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 Architecture des systèmes de communication par satellite.. Terminologie....................................................................................... Secteurs terrien et spatial .................................................................. Lancement des satellites .................................................................... Orbites ................................................................................................ Position des satellites dans l’espace ................................................. Télémétrie, poursuite et télécommandes .......................................... Aires de lancement ............................................................................ Alimentation électrique ...................................................................... Débris spatiaux ................................................................................... 2. 2.1 2.2 2.3 2.4 Système de communications spatiales ...................................... Fréquences et largeurs de bande ...................................................... Modulations ....................................................................................... Qualité de la liaison ........................................................................... Liaisons intersatellites ....................................................................... — — — — — 10 10 12 13 16 3. 3.1 3.2 3.3 3.4 3.5 Organisation de la transmission .................................................. Vue générale ....................................................................................... Accès multiples .................................................................................. Hybridation des connexions .............................................................. Gestion du trafic de données ............................................................ Nouveaux concepts dans les réseaux ............................................... — — — — — — 16 16 17 18 19 20 4. 4.1 4.2 4.3 4.4 4.5 4.6 4.7 4.8 Exploitation des services par satellite ....................................... Lanceurs de satellites ......................................................................... Exploitants de satellites GEO............................................................. Constellations de satellites MEO et LEO ........................................... Concurrences entre LEO et MEO ....................................................... Financements et investisseurs ........................................................... Tendances du marché satellitaire ...................................................... Économie de l’hybridation ................................................................. Sécurité et risques ............................................................................. — — — — — — — — — 21 22 22 23 23 23 24 25 25 5. Réglementation ............................................................................... — 26 6. Projections vers le futur ................................................................ — 26 E 7 560v2 — — — — — — — — — –2 2 2 4 6 7 9 10 10 10 Pour en savoir plus.................................................................................. Doc. E 7 560v2 n satellite est essentiellement un système de communication autonome capable de recevoir des signaux de la Terre et de retransmettre ces signaux à l’aide d’un récepteur intégré et d’un émetteur de signaux radio, ensemble appelé « transpondeur ». Les satellites ont pour vocation de constituer des liaisons longues, là où l’investissement en câbles s’avérerait difficile. Le concept de communication par satellite a été proposé par Arthur C. Clarke dans un article publié dans la revue « Wireless World » en 1945. En effet, un satellite placé à une altitude de 35 786 km au-dessus de la surface de la Terre se déplace à la même vitesse et demeure donc dans une position fixe par rapport à la Terre. Cette orbite, appelée « orbite géostationnaire », ou « Ceinture de Parution : juillet 2018 U Copyright © - Techniques de l’Ingénieur - Tous droits réservés 31 E 7 560v2 – 1 Référence Internet E7560 SYSTÈMES DE COMMUNICATIONS PAR SATELLITE 1 –––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––– Clarke », est idéale puisqu’elle permet à une antenne au sol de communiquer avec un satellite 24 heures sur 24 sans avoir à modifier sa position [1]. Un satellite doit supporter une forte accélération à l’occasion de son lancement jusqu’à atteindre la vitesse orbitale de 28 100 km/h, dans un environnement spatial hostile où il peut être soumis à des radiations et à des températures extrêmes pour une durée de vie estimée à 20 ans. En outre, le satellite doit être le plus léger possible, car le coût élevé de son lancement est basé sur le poids. Pour relever ces défis, un satellite doit être composé à partir de matériaux légers et durables. Il doit fonctionner avec une très grande fiabilité de plus de 99,9 % dans le vide spatial sans perspective d’entretien ou de réparation. Le premier satellite artificiel, Spoutnik 1, a été lancé par l’Union Soviétique, le 4 octobre 1957. Le premier satellite à relayer les signaux vocaux fut celui du projet SCORE (Signal Communication by Orbite Relay Equipment) du gouvernement américain, le 19 décembre 1958. Le 6 avril 1965, le premier satellite Intelsat, Early Bird (appelé aussi Intelsat 1), a été construit par Hughes Aircraft Company. Early Bird a été le premier satellite commercial opérationnel à fournir des services réguliers de communication et de diffusion entre l’Amérique du Nord et l’Europe. 1.2 Secteurs terrien et spatial 1. Architecture des systèmes de communication par satellite 1.2.1 Segment spatial Pour utiliser le vocabulaire usuel, un satellite est composé essentiellement d’une charge utile et d’une plateforme. La charge utile d’un satellite de communications comporte des antennes d’émissionréception et d’un ensemble de canaux de transmission et d’amplification (ou transpondeurs), chacun de ceux-ci étant spécialisé pour un seul sens et pour une bande définie de fréquences. 1.1 Terminologie Quel que soit son mode de réalisation, la communication par satellite présente deux composantes essentielles, un segment spatial et un segment terrestre. Le segment spatial est constitué par le satellite lui-même, qui dispose de dispositifs d’émission-réception radioélectriques associés à des antennes et des amplificateurs à large bande et à gain élevé. Le segment terrestre comprend les équipements de transmission, fixes ou mobiles, situés à la surface de la terre et des équipements auxiliaires. Les récepteurs au sol comprennent les équipements de réception directe par satellite (DTH, Direct To the Home, ou Direct-broadcast satellite), les appareils de réception mobiles situés dans les avions, les navires, les téléphones par satellite et les appareils portatifs. La plateforme comporte plusieurs sous-systèmes indispensables au fonctionnement de la charge utile, parmi lesquels se trouvent : – l’alimentation électrique ; – le contrôle thermique ; – le contrôle d’altitude et d’orbite ; – l’ensemble relatif à la propulsion ; – les dispositifs relatifs aux fonctions de poursuite, de télémesure et des télécommandes (TT&C, Telemetry, Tracking and Control). L’organisation des transpondeurs de la charge utile répond aux exigences de la technologie utilisée en matière de traitement du signal, la puissance de chacun des canaux devant être optimisée sans créer de perturbations dommageables aux autres signaux transmis (figure 1). Les différentes liaisons montantes (uplink) sont collectées par les antennes réception du satellite et réparties grâce aux filtres d’entrée (IMUX). Après amplification dans chacun des canaux spécialisés charge utile, les bandes de fréquences porteuses sont regroupées à travers les filtres de sortie (OMUX) dans des canaux orientés vers les antennes d’émission afin de constituer les liaisons descendantes (downlink). Une liaison satellite typique se compose d’une transmission d’un signal depuis une station terrienne vers un satellite (liaison montante). Le satellite reçoit et amplifie le signal et le retransmet ensuite vers la Terre (liaison descendante), où il est reçu et amplifié à nouveau par les stations terriennes et les terminaux. Un système de communication par satellite est composé d’un ensemble de stations terrestres d’émission-réception qui communiquent avec un ou plusieurs satellites placés en rotation autour de la Terre, d’un dispositif de télémétrie et de recherche (Tracking) et d’un centre de gestion du réseau (figure 1). Les stations terriennes sont reliées aux divers réseaux terrestres nationaux et internationaux qui leur sont les plus proches. Un satellite de communication est équipé d’antennes et d’amplificateurs (ou transpondeurs) qui reçoivent et retransmettent les signaux, d’un système d’alimentation (§ 1.8) et d’un système de propulsion. Ce dernier permet de placer le satellite sur la bonne position orbitale et d’apporter des corrections éventuelles. Un satellite en orbite géostationnaire peut dévier chaque année jusqu’à un degré du nord au sud ou d’est en ouest de son emplacement en raison de l’attraction gravitationnelle de la Lune et du Soleil. Des propulseurs permettent d’ajuster la position. Le rayon terrestre R (OA, OB) étant de l’ordre de 6 370 km, l’angle sous lequel est vue la Terre depuis la Ceinture de Clarke (à l’altitude de 35 860 km) est de 17,3 et l’arc terrestre correspondant est de 18 080 km. Trois satellites géostationnaires espacés de 120 suffisent pour desservir la plupart des terres habitées, à l’exception des régions polaires (figure 2). E 7 560v2 – 2 Copyright © - Techniques de l’Ingénieur - Tous droits réservés 32 Référence Internet E7560 ––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––– SYSTÈMES DE COMMUNICATIONS PAR SATELLITE Segment spatial Satellite (avec ses antennes et son système de contrôle distant – TTC, Équipements de poursuite de télémesure et de télécommande) Liaison montante 1 Liaison descendante Récepteur Émetteur Segment terrestre Figure 1 – Composantes d’un système de télécommunications par satellite des matériaux résistants. Le système thermique du satellite protège les composants électroniques sensibles et les maintient à une température optimale. S 1.2.2 Segment terrestre Le segment terrestre est constitué de l’ensemble des stations terriennes qui sont raccordées aux réseaux publics ou privés par des câbles ou des liaisons hertziennes. Ces stations dites terriennes doivent être entendues comme stations terminales du réseau spatial, car elles peuvent concerner des stations terrestres (fixes ou transportables) ou des stations mobiles (véhicules, aéronefs ou navires). La plupart de ces stations terriennes sont le plus souvent émettrices et réceptrices, mais certaines ne disposent que de la fonction de réception (RCVO : receive only), par exemple dans le cas de système de radiodiffusion par satellite ou de diffusion de données. A B 1.2.3 Diversité des services Les systèmes de communication par satellite ont beaucoup évolué au cours de ces cinquante dernières années. Initialement conçus pour la diffusion de services de télévision par satellite et les besoins en communications intercontinentales à caractère civil ou militaire, les satellites ont trouvé de nouveaux segments de marché qui mettent à profit leurs caractéristiques essentielles : possibilité de diffusion en espace libre en large spectre de fréquences ou en spectre plus étroit en haut ou en faible débit avec la possibilité d’une mise en œuvre et d’une reconfiguration rapide des paramètres de transmission, en complémentarité avec les ressources des réseaux terrestres existants. Figure 2 – Couverture terrestre avec trois satellites géostationnaires Le maintien de la position orbitale d’un satellite est appelé maintien de la station et les corrections apportées par les propulseurs du satellite sont appelées contrôle d’attitude. La durée de vie d’un satellite est déterminée par la quantité disponible de carburant nécessaire aux propulseurs. Une fois le carburant épuisé, le satellite finit par dériver dans l’espace et devenu hors d’usage, il rejoint les débris spatiaux. 1.2.3.1 Communications entre stations fixes Différentes classes de service peuvent être distinguées au sein du service fixe (SF). Le service de téléphonie et de transfert de programmes de télévision est essentiellement un service point à point, organisé entre le pays ou le service de départ, et le centre d’arrivée. Les groupes de canaux de communications sont multiplexés et modulés par une porteuse avant d’être transmis sur le segment spatial (§ 3.2). Puis ils sont démodulés à la station d’arrivée avant Les satellites fonctionnent à des températures allant de - 150 à + 150 C et peuvent être soumis à des radiations dans l’espace. Pour cette raison, les composants du satellite sont blindés avec Copyright © - Techniques de l’Ingénieur - Tous droits réservés 33 E 7 560v2 – 3 Référence Internet E7560 SYSTÈMES DE COMMUNICATIONS PAR SATELLITE –––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––– d’être acheminés par les raccordements terrestres jusqu’à leur destination. Selon l’importance des canaux à transmettre, le trafic global peut être acheminé au moyen de plusieurs porteuses (MCPC, Multichannels Per Carrier) ou bien, s’il ne s’agit que d’une seule voie, par une porteuse unique (SCPC, Single Channel Per Carrier). Dans ce dernier cas, le système d’antennes est moins conséquent. Le système VSAT appartient également à la famille des systèmes satellitaires établis entre stations fixes (§ 3.2.2). 1 1.2.3.2 1 – Injection sur orbite circulaire de transfert 3 – Après retournement, transfert 2 4 – Mise sur orbite finale Figure 3 – Étapes d’une procédure de lancement L’égalité des deux forces considérées, avec w = 2 x 3,14/T, fournit l’équation suivante : Radiodiffusion 2 M.g. (R/ (R + H)) = M.ω 2 . (R + H) , d'où il vient : H = 35 879 km. Les programmes de radios et de télévision utilisent les satellites en raison de leur capacité à couvrir de vastes zones géographiques. Il suffit d’un émetteur de programmes dont l’antenne est orientée vers un satellite équipé pour la diffusion sur l’ensemble d’un territoire national. La même technologie peut aussi être utilisée pour la transmission vers les studios de séquences de reportages relayées au moyen de systèmes satellitaires du service mobile. 1.2.3.4 avec H l’altitude, exprimée en km, de l’orbite du satellite terrestre ; R le rayon terrestre (6 378 km) ; M la masse du satellite ; g l’accélération de la pesanteur sur le lieu de lancement ; T la période de révolution de la Terre (24 heures). Diversification géographique des marchés À l’origine du marché satellitaire, les États-Unis, l’Europe et le Japon ont représenté les segments dominants. Depuis cinquante ans, les réseaux terrestres se sont densifiés et la fibre optique est devenue le support de choix pour les hauts débits internationaux. Les récentes avancées technologiques ouvrent la voie aux constellations de satellites en concurrence avec les réseaux de téléphonie mobile, notamment pour l’accès aux applications Internet. Des plans audacieux de développement sont actuellement proposés afin de réduire la fracture numérique à travers le monde, en particulier pour le bénéfice des populations isolées. La satellisation dépend de la vitesse acquise par la charge utile. Celle-ci doit être comprise entre 7,8 km/s et 11 km/s. La vitesse de satellisation minimale (MVOO) pour la Terre et pour une orbite circulaire de 1 200 km d’altitude est de 7,9 km/s. À 11 km/s, le satellite échappe à la gravité de la Terre et devient une sonde spatiale. À 36 000 km d’altitude, un lanceur dispose d’une capacité de charge de 6,9 tonnes. Cette capacité est proche de 10 tonnes à 800 km et elle atteint 20 tonnes entre 300 et 400 km. En général, les lanceurs sont constitués de deux ou trois étages de propulseurs à poudre ou à liquide. Les propulseurs, ainsi que le premier et le second étage, sont des éléments de la fusée récupérables par des parachutes dans la mer. Les autres éléments se désagrègent dans l’atmosphère. À la fin de la seconde guerre mondiale, les lanceurs à poudre et à ergols liquides furent utilisés pour la propulsion de missiles et des fusées spatiales. Des solutions alternatives ont été envisagées pour la propulsion de sondes spatiales ou pour les étages supérieurs des lanceurs de satellites, l’accélération atmosphérique pouvant être fournie par d’autres moteurs, moteur ionique ou VASIMR (§ 1.3.4). 1.3 Lancement des satellites 1.3.1 Principes de lancement La procédure de lancement consiste à mettre le nombre de satellites désiré dans le plan orbital et la position relative souhaités. Afin de réduire le coût du lancement, plusieurs satellites peuvent être lancés simultanément en utilisant une orbite provisoire de transfert (ou orbite de parking). L’allumage d’un moteur associé à chaque satellite modifie l’orbite de celui-ci en plusieurs étapes symbolisées sur la figure 3. Le positionnement relatif des satellites sur l’orbite finale s’effectue au moment opportun par action sur son moteur associé. La capacité de charge des lancements a été récemment élargie entre 8 et 27 tonnes et elle pourrait atteindre 250 tonnes en 2030. Cet élargissement des possibilités ouvre la voie à des satellites moins coûteux, mieux financés et à la création de constellations de satellites en couche basse (LEO), de poids compris entre 10 et 250 kg. Pour placer un satellite sur orbite terrestre, une fusée (ou lanceur) est utilisée. Ce lanceur doit conférer à la charge utile une vitesse suffisante à une altitude définie afin d’assurer la stabilité de rotation du satellite autour de la Terre. 1.3.2 Lanceur thermique Différentes méthodes de propulsion spatiale sont disponibles afin d’assurer le déplacement d’un objet dans l’espace. Le principe de propulsion est lié à la transformation d’énergie chimique en énergie cinétique. Le moteur de la fusée crée sa propre force motrice, dans l’atmosphère et dans le vide spatial, du fait du principe de l’égalité de l’action et de la réaction, par l’éjection de gaz à grande vitesse à l’arrière du véhicule au travers d’une tuyère (propulsion par « moteur-fusée »). La plupart des vaisseaux spatiaux actuels utilisent des moteurs à fusées chimiques à combustion La mise sur orbite résulte de la mise en présence de deux forces opposées, l’une qui est l’attraction terrestre, orientée vers le centre de la Terre et la force centrifuge qui, grâce au lanceur, éloigne le satellite du sol et le met en rotation. Le lancement d’un satellite suppose que celui-ci puisse acquérir une accélération suffisante pour atteindre 28 100 km/h en vitesse orbitale. Une fois cette dernière acquise, l’équilibre des forces en présence est assuré. E 7 560v2 – 4 3 1 Communications avec les stations mobiles Au cours des vingt dernières années, la miniaturisation des composants et des antennes a ouvert la voie à une forte réduction du poids et de l’encombrement des équipements d’émission-réception radioélectriques. Parallèlement, les offres de téléphonie vocale et de transferts de données se sont multipliées à des niveaux de prix de plus en plus bas avec les réseaux terrestres de téléphonie mobile (2, 3 et 4G) et les réseaux satellitaires (Iridium, Globalstar, Orbcomm, etc.). 1.2.3.3 4 2 – Parcours inertiel sur orbite de transfert Copyright © - Techniques de l’Ingénieur - Tous droits réservés 34 Référence Internet E7560 ––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––– SYSTÈMES DE COMMUNICATIONS PAR SATELLITE 1.3.5 Lancement spatial avec assistance interne, à propergols solides ou liquides. L’ergol combustible brûle l’ergol comburant, ce qui fournit l’énergie nécessaire à la propulsion de la masse de l’ensemble lanceur / satellite. La masse propulsive à haute température est éjectée sous la forme d’un gaz très chaud à travers une tuyère qui assure la détente et l’accélération du gaz d’échappement. Les vitesses d’éjection de tels moteurs sont habituellement comprises entre 2 et 10 fois la vitesse du son au niveau de la mer. 1.3.5.1 Lancement spatial sans fusée Le lancement spatial sans fusée est une méthode de lancement orbital ou suborbital, pour lequel la vitesse et l’altitude sont fournies sans avoir recours à des fusées éjectant des gaz pour produire une poussée à l’arrière du véhicule. Dans la plupart des cas, la méthode utilisée est la projection, la charge utile étant mise en mouvement par une force transmise à l’aide d’un dispositif fixe situé au sol (canon ou catapulte). Il s’agit d’un lancement assisté, tel qu’utilisé par le lanceur Pegasus et le vaisseau SpaceShipOne (lancement aéroporté partiel). 1.3.3 Propulsion électrique La propulsion électrique n’est utilisable qu’en haute altitude et elle présente l’inconvénient d’allonger le temps de mise en orbite. Elle est mise en œuvre pour le maintien à poste des satellites et la rehausse de leur orbite à leur valeur théorique en utilisant des forces électrostatiques ou électromagnétiques. Dans ce procédé, la masse propulsive est constituée d’un flux d’ions sous forme de carburant ionisé éjectable. Les moteurs utilisent l’énergie électrique pour ioniser les atomes de la masse propulsive, puis créent des champs électriques pour accélérer les ions jusqu’à leur vitesse d’éjection. Ce processus économise du poids dans la période de lancement. L’efficacité énergétique et la poussée sont inversement proportionnelles à la vitesse d’éjection. Les grandes vitesses d’éjection exigeant de très grandes puissances électriques, ce concept devient inapplicable pour les fortes poussées. 1.3.5.2 Lancement d’un satellite à l’aide d’un avion En 2016, la Nasa a placé en orbite huit microsatellites météorologiques (constellation CYGNSS, Cyclone Global Navigation Satellite System), grâce à un avion de la Nasa, porteur d’un lanceur Pegasus XL. L’avion a déployé le lanceur de 22 tonnes à 13 km d’altitude et celui-ci a placé les satellites sur leur orbite à 512 km d’altitude (figure 4). Ces derniers ont pour mission de mesurer la vitesse des vents afin de mieux anticiper l’évolution des ouragans. 1.3.5.3 Ballons Pour des expériences à caractère scientifique, éducatif, ou commercial, des charges utiles peuvent être transportées par des ballons gonflés à l’hélium à des altitudes comprises entre 10 et 40 km. Ces déploiements, sollicités par des institutions gouvernementales, ne portent que sur de courtes durées (entre deux heures et plusieurs semaines), afin de faire face à un sinistre par exemple. Un ballon peut ainsi emmener à 22 km d’altitude une fusée dont la mise à feu peut placer en orbite à 600 km d’altitude un satellite de 150 kg de charge utile. 1.3.4 VASIMR La propulsion magnéto-plasmique à impulsion spécifique variable ou VASIMR (« Variable Specific Impulse Magnetoplasma Rocket ») est un propulseur spatial à plasma. Il utilise des champs et des rayonnements électromagnétiques variables pour chauffer, ioniser et accélérer un propergol vaporisé (hydrogène, argon ou hélium). VASIMR est une solution alternative à deux systèmes spécialisés existants que sont les propulseurs à haute poussée et à faible impulsion spécifique (comme les moteurs-fusées à propulsion chimique) d’un côté, et les propulseurs à faible poussée et à haute impulsion spécifique (moteurs ioniques) de l’autre. Il est capable de fonctionner dans les deux modes par ajustement des paramètres. 1.3.6 Principaux lanceurs actuels La mise en orbite est un facteur déterminant dans les projets spatiaux pour lesquels l’efficacité et l’économie constituent des objectifs essentiels. Au total, il n’existe que sept puissances au monde capables de fabriquer et d’assurer le lancement de leurs satellites de façon autonome : les États-Unis, la Chine, l’Union européenne, la Russie, l’Inde, le Japon et Israël (§ 4.1). Fin 3ème étage 512 km Avion porteur à altitude de 12,4 km. Lâcher de la charge Étape variable Allumage du 3ème étage à 458 km Fin du second étage 174 km Départ 2ème étage – 71 km Largage du carénage de charge à 116 km Allumage à 12,3 km Fin 1er étage 53 km Montée Figure 4 – Lancement d’un satellite à partir d’un avion Copyright © - Techniques de l’Ingénieur - Tous droits réservés 35 E 7 560v2 – 5 1 Référence Internet E7560 SYSTÈMES DE COMMUNICATIONS PAR SATELLITE –––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––– 1.4 Orbites Les caractéristiques essentielles des satellites de télécommunications sont relatives à leur altitude, à l’inclinaison de leur orbite par rapport à l’axe des pôles terrestres et à l’excentricité de leur orbite. L’orbite du satellite est circulaire si l’injection sur la trajectoire désirée est effectuée horizontalement et à une vitesse en adéquation avec l’altitude. Si ces conditions ne sont pas respectées, l’orbite est elliptique. 1 1.4.1 Paramètres orbitaux Deux corps ponctuels A et B, de masses respectives et s’attirent avec des forces de même valeur, mais de sens opposé, proportionnelles aux produits des deux masses, et inversement proportionnelles au carré de la distance qui les sépare. Cette force a pour direction la droite passant par les centres de gravité des deux corps. La force exercée sur le corps r le corps est donnée par la relation : F (en newtons) = G.M.m/r2 Figure 5 – Orbite polaire G est la constante gravitationnelle (G = 6,672.10 -11 3 -1 -2 m .kg .s ). De la loi de Newton, se déduisent les propriétés suivantes (lois de Kepler) : – l’orbite d’un satellite de télécommunications est une conique (ellipse ou cercle), dont le plan contient le centre de la Terre. Lorsque l’orbite est circulaire, son centre est celui de la Terre. Le satellite se déplace d’autant plus vite qu’il est proche de la Terre, c’est-à-dire que la droite qui joint le centre de la Terre au satellite balaie des aires égales dans des intervalles de temps égaux ; – le carré de la période de rotation du satellite autour de la Terre varie comme le cube de la longueur du grand axe de l’ellipse. Si l’orbite est circulaire, le grand axe est alors le rayon du cercle. Le satellite est positionné dans l’espace au moyen des paramètres suivants : – inclinaison du plan de l’orbite sur le plan équatorial de la Terre, – ascension droite du nœud ascendant (point de passage du satellite dans le plan équatorial de la Terre de l’hémisphère Sud vers l’hémisphère Nord), – argument du périgée du satellite (point le plus proche du centre de la Terre), – caractéristiques de l’ellipse décrite (demi-grand axe « a » et excentricité e = c/a, c étant la distance du centre de l’ellipse au centre de la Terre), – position du satellite sur son ellipse (anomalie vraie exprimée par l’angle dont le sommet est au centre de la Terre par rapport à la direction du périgée), – en fonction de la valeur de l’angle “i”, déterminé par le plan de l’orbite du satellite et le plan équatorial de la Terre, l’orbite du satellite est « équatoriale » si i = 0 et elle est « polaire » si i = 90 . Si i est compris entre 0 et 90 , l’orbite est dite « inclinée » (figures 5, 6 et 8). Figure 6 – Orbite équatoriale Les objets qui se déplacent, progressent en tournant autour de leur axe principal de symétrie Oy, qui suit une « parallèle » à l’horizontale terrestre. Pour bénéficier d’une condition de rotation stable, le rapport des moments d’inertie du satellite doit satisfaire les conditions suivantes Iy > Ix et Iy > Iz. En général, le rapport Iy / Ix s’établit autour de 1,1 et 1,3, et la vitesse de rotation est de l’ordre de 100 tours par minute. Les couples solaires et magnétiques créent une précession qui vient s’ajouter aux erreurs et l’ensemble peut néanmoins être corrigé en utilisant le système de propulsion secondaire du satellite de façon périodique. 1.4.3 Éclipses solaires Pour chaque satellite, le système d’orientation de ses panneaux solaires fait pivoter ceux-ci sur eux-mêmes une fois par jour, de façon à ce qu’ils se présentent sous un angle optimal face au soleil (tolérance de 1 ). Dans le cas des GEO, et en raison de l’inclinaison écliptique, l’angle d’incidence de la lumière du soleil varie entre 0 et 23 27’ entre les jours du solstice et l’équinoxe, ce qui entraı̂ne une perte de puissance de 8 %. Aux équinoxes, lorsque le soleil se trouve dans l’axe de l’antenne, les antennes terriennes de réception sont aveuglées par le soleil pendant 5 à 70 minutes environ selon la latitude. Les périodes d’éclipses commencent 23 jours avant l’équinoxe et se terminent 23 jours après cette date. Parfois, des courtes éclipses de lune peuvent aussi se produire, obligeant le satellite à utiliser les ressources de sa batterie. Pour les MEO et les LEO, le phénomène d’occultation du soleil obéit aux mêmes principes, le nombre et la durée des éclipses solaires étant fonction du mouvement des satellites. 1.4.2 Perturbations des trajectoires Les perturbations de trajectoires des satellites sont liées aux phénomènes suivants : – asymétrie de l’attraction de la Terre du fait des irrégularités de celle-ci sur le plan morphologique et de sa rotation ; – attraction conjoncturelle du Soleil et de la Lune. L’effet sur l’orbite du satellite dépend des paramètres orbitaux. Il est faible pour les satellites en couche basse et fort pour les GEO. Il se produit une dérive de l’inclinaison de l’orbite du satellite de l’ordre de 0,85 par an ; – pression de radiation solaire liée à la réflectivité de la surface du satellite ; – traı̂née aérodynamique, laquelle, proportionnelle à l’inverse de leur vitesse, s’exerce sur les satellites en couche basse et tend à diminuer l’excentricité de leurs orbites. E 7 560v2 – 6 1.4.4 Rayonnements nocifs 1.4.4.1 Ceinture de Van Allen La ceinture de Van Allen, zone toroı̈dale de la magnétosphère de la Terre entourant l’équateur magnétique et contenant une grande densité de protons et de particules énergétiques comprend deux Copyright © - Techniques de l’Ingénieur - Tous droits réservés 36 Référence Internet R1814 Mesure du champ de pesanteur terrestre 1 par Michel DIAMENT Physicien à l’Institut de physique du globe de Paris (IPGP) Laboratoire de gravimétrie et géodynamique, département de géophysique spatiale et planétaire (UMR CNRS/IPGP/Paris-7 7096) 1. Champ de pesanteur terrestre ............................................................. 2. Types de mesures. Réseaux de bases................................................. — 4 3. Mesures absolues..................................................................................... — 5 4. 4.1 4.2 Mesures relatives ..................................................................................... Gravimètres à ressort.................................................................................. 4.1.1 Appareils commercialisés.................................................................. 4.1.2 Conditions d’utilisation ...................................................................... Gravimètres supraconducteurs .................................................................. — — — — — 7 7 7 8 9 5. Mesures et mobiles ................................................................................. — 11 6. Mesures particulières : puits, fond de mer....................................... — 11 7. Mesures depuis l’espace ........................................................................ — 11 8. Comment connaître la valeur de g en France .................................. — 14 Pour en savoir plus ........................................................................................... R 1 814 - 2 Doc. R 1 814 Parution : juin 2005 L a mesure de la pesanteur terrestre est utile pour de nombreuses applications : en géophysique, en géodésie en passant par la navigation, la physique fondamentale et la métrologie. En géophysique [R 2 345] [C 224], l’analyse et la modélisation des variations spatiales ou temporelles du champ de pesanteur permettent d’avoir accès à la structure en densité du globe terrestre et à ses éventuelles variations. Les applications vont de la physique du globe au génie civil en passant par la volcanologie, l’étude des ressources naturelles, l’océanographie et l’hydrologie. En géodésie [C 5 010], la connaissance des anomalies de pesanteur permet de déterminer l’altitude du géoïde (surface équipotentielle du champ de pesanteur terrestre qui se confond avec le niveau moyen des mers) par rapport à un ellipsoïde de référence. Il s’agit donc d’une mesure fondamentale pour la connaissance de la forme de la Terre. La connaissance de l’altitude du géoïde par rapport à un ellipsoïde de référence est également indispensable pour pouvoir comparer des résultats de mesures de nivellement utilisant des techniques spatiales (GPS : Global Positioning System) avec ceux de mesures classiques [1]. Depuis quelques années, nos connaissances sur le champ de pesanteur terrestre ont énormément progressé du fait, d’une part, des évolutions des instruments de mesure et, d’autre part, de l’apport des techniques spatiales. Les satellites ont permis de réaliser à la fois des mesures complémentaires comme l’orbitographie, l’altimétrie satellitaire [E 4 140], les méthodes de positionnement (GPS) [TE 6 715], la connaissance de la topographie que des mesures directes de la gravité terrestre à partir de missions dédiées. Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur 37 R 1 814 − 1 Référence Internet R1814 MESURE DU CHAMP DE PESANTEUR TERRESTRE _____________________________________________________________________________________________ On mesure désormais le module g du vecteur pesanteur g mais également ses gradients spatiaux (les éléments du tenseur dit de gradiométrie Txy ) à terre, en mer, en fond de mer, en avion, depuis l’espace. On connaît également le champ de gravité d’autres corps du système solaire (planètes comme Mars et Vénus, satellites comme la Lune et même de certains « petits corps »). 1 Une partie de ce texte est adaptée du chapitre « Forme de la Terre et mesure de la pesanteur » de l’ouvrage Géophysique [19]. Cette étude a bénéficié des informations ou documents que Nicole Debéglia (Bureau de recherches géologiques et minières – BRGM), Sébastien Déroussi (Bureau FROG – French Resources Organization on GOCE), Arnaud Landragin (CNRS-BNM-SYRTE), Guillaume Martelet (BRGM) et Michel Sarrailh (Bureau gravimétrique international – BGI) m’ont communiqués ainsi que des commentaires de Marc Priel sur une version préliminaire. Je les en remercie. Je tiens à exprimer ma gratitude à Anne-Marie Gaulier pour sa patience. 1. Champ de pesanteur terrestre Tableau 1 – Unités de la pesanteur et du gradient de la pesanteur Unité Un point massique à la surface de la Terre, en rotation avec elle, subit une accélération appelée accélération de la pesanteur. Cette accélération est la résultante des attractions newtoniennes des masses de la Terre (la gravité), de l’accélération centrifuge due à la rotation de la Terre, de l’attraction newtonienne des autres corps du système solaire (en pratique, il s’agit essentiellement de la Lune, pas très massique mais proche et du Soleil, éloigné mais très massique). Le module de l’accélération de la pesanteur en un point et en un instant donné, qu’on appelle la pesanteur (gravity dans les publications anglo-saxonnes), dépend donc de la répartition des masses dans la Terre et au voisinage immédiat du point de mesure, de la position géographique de celui-ci et de sa position relative par rapport à la Lune et au Soleil. Dans le système international (SI), l’unité de la pesanteur est le mètre par seconde carrée (m/s2). Les variations spatiales ou temporelles qui intéressent les géophysiciens et géodésiens sont comprises entre 10–9 et 10–3 m/s2 et on utilise fréquemment le micromètre par seconde carrée (1 μm/s2 = 10–6 m/s2), également appelé gravity unit dans certaines publications anglo-saxonnes, ou le nanomètre par seconde carrée (1 nm/s2 = 10–9 m/s2). Les géophysiciens et géodésiens continuent à utiliser une unité de l’ancien système CGS, le gal, noté Gal, ainsi nommé en hommage à Galilée, qui vaut 10–2 m/s2, ainsi que ses subdivisions : le milligal (mGal) qui vaut 10–5 m/s2 et le microgral (μGal) égal à 10–8 m/s2. Une des raisons, outre l’habitude, pour cet usage d’une unité « illégale » est que les densités et les masses volumiques (appelées density dans les publications anglo-saxonnes et données avec une unité) ont la même valeur numérique dans le système CGS. Il existe également une unité utilisée pour les gradients de la pesanteur. Il s’agit de l’eötvös, noté E, d’après le nom d’un géophysicien hongrois : 1 E = 0,1 μGal / m = 10–9 s–2. Le tableau 1 rappelle les différentes unités utilisées. Gal Milligal Microgal Nanomètre par seconde carrée Gravity unit Eötvös Valeur en SI Remarques Gal 10–2 m/s2 mGal 10–5 m/s2 1 mGal r 10–6 <g > μGal 10–8 1 μGal r 10–9 <g > m/s2 nm · s–2 10–9 m/s2 g.u. 10–6 m/s2 mGal/m 10–5 s–2 E 10–9 s–2 = 0,1 μGal/m Le gradient à l’air libre « normal » à la surface de la Terre est : 0,3086 mGal/m (croûte supérieure) créent des signaux allant de l’ordre de la centaine de milligals (10–4 <g >) pour une chaîne de montagne à localement quelques dizaines de microgals (10–8 <g >) pour une cavité en subsurface. Les hétérogénéités de masse plus profondes créent des signaux plus étendus et de plus faible amplitude. En latitude, la pesanteur varie donc (figure 1). Le gradient horizontal sud-nord est de l’ordre de 0,81 sin 2λ mGal/km avec λ la latitude. L’Association internationale de géodésie (AIG), l’une des sept associations constituant l’Union géodésique et géophysique internationale (UGGI), a défini des valeurs théoriques de la pesanteur sur la Terre en fonction de la latitude. Ces formules, dites IGF pour international gravity formula, sont valables sur un ellipsoïde donné. Rappelons que l’ellipsoïde est une forme théorique de la Terre, proche mais qui diffère du géoïde qui correspond à la forme vraie de la Terre. Le géoïde est une surface équipotentielle du champ de pesanteur terrestre qui se confond avec le niveau moyen des océans. L’ellipsoïde est une surface équipotentielle du champ de pesanteur théorique. La formule de 1980 donne la valeur de la pesanteur sur l’ellipsoïde correspondant au système géodésique WGS84 (utilisé pour le positionnement GPS) [IN 29]. (0) La pesanteur à la surface de la Terre <g > est de l’ordre de 9,80 m/s2. Elle est plus faible à l’équateur où, du fait de la rotation, le rayon terrestre est le plus grand et l’accélération centrifuge la plus forte, et vaut 9,78 m/s2. Aux pôles, la valeur est de 9,83 m/s2. Les variations en latitude, qui sont du même ordre de grandeur que les variations en altitude (du sommet de l’Everest au fond de la fosse des Mariannes) sont donc de l’ordre 5 · 10–3 <g >. Les hétérogénéités de masse situées dans la partie la plus externe du globe R 1 814 − 2 Symbole Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur 38 Référence Internet R1814 ____________________________________________________________________________________________ MESURE DU CHAMP DE PESANTEUR TERRESTRE 9,82 0,8 9,81 0,6 ie Gr M 0,2 9,78 0 0 10 20 30 40 50 60 70 80 90 Latitude λ (°) (2) La figure 2 montre la valeur de g en milligals au niveau du sol sur la France métropolitaine. Elle a été calculée par le Bureau gravimétrique international (BGI) situé à Toulouse. On constate bien une augmentation de g avec la latitude et une diminution avec l’altitude. Figure 1 – Variation de la pesanteur et de son gradient horizontal en fonction de la latitude En un point donné, la pesanteur varie au cours du temps. Cela est dû à l’effet des corps externes (la Lune et le Soleil) ainsi qu’aux mouvements éventuels de masses au voisinage du point de mesures, notamment ceux des enveloppes fluides que sont l’atmosphère et les nappes phréatiques. Si λ est la latitude, on a : g = 9,7803267715 (1 + 0,0052790414 sin2 λ + 0,0000232718 sin4 λ + 0,0000001262 sin6 λ + 0,0000000007 sin8 λ ) (1) Latitude λ (°) N La pesanteur varie également avec l’altitude (plus on s’éloigne du centre de la Terre, plus la pesanteur diminue) : son gradient vertical moyen dit à l’air libre vaut 0,308 6 mGal/m. Lorsque l’on s’élève avec le sol, le gradient est plus faible. Il dépend naturellement de la densité des constituants du sol, et est de l’ordre de 0,2 mGal/m. Typiquement, g diminue de 0,001 m/s2 lorsque l’on s’élève de 500 m sur la topographie. Les gradients varient donc en fonction de la nature du sous-sol, de la topographie et des masses au voisinage immédiat du point de mesure. En fonction des besoins, il peut être nécessaire de mesurer éventuellement les gradients, et en particulier le gradient vertical. 0,4 n sa Pe 9,79 2 1 + 0,00193185138639sin λ g = 9,7803267714 -------------------------------------------------------------------------------------1 – 0,00669437999013 sin 2 λ te ur 9,8 Gradient (mGal / km) 0,9 nt 9,83 ad Pesanteur g (m/s2) Une forme approchée est : 52 51 50 49 48 47 46 45 44 43 42 –5 –4 –3 –2 –1 0 1 2 3 4 5 6 7 8 9 Longitude (°) Figure 2 – Valeur de la pesanteur au sol (mGal) calculée par le BGI à partir de 49 625 mesures effectuées en France Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur 39 R 1 814 − 3 1 Référence Internet R1814 1 Marée gravimétrique (mGal) MESURE DU CHAMP DE PESANTEUR TERRESTRE _____________________________________________________________________________________________ Aperçu historique des mesures du module de g, mesures des gradients 0,1 Historiquement, les premières mesures gravimétriques ont été réalisées avec des pendules, il y a plus de 300 ans. Les premières mesures permettant de cartographier la structure fine du champ de pesanteur ont été réalisées par le baron R. von Eötvös, géophysicien hongrois, au début du vingtième siècle. Eötvös mit au point une balance de torsion permettant de mesurer les gradients horizontaux. Ce type d’instrument a été utilisé de façon intensive au début de l’exploration pétrolière jusque vers 1939 où il a été supplanté par des gravimètres relatifs donnant accès à la mesure du module de g. Néanmoins, récemment, il y a eu un regain d’utilisation d’instruments mesurant les différents gradients du champ (FTG : full tensor gradiometry ) et de nombreux colloques y sont consacrés dans les milieux industriels. En mer, les premières mesures ont été réalisées dès 1921 à bord de sous-marins par un géophysicien hollandais, F.A. Vening-Meinesz, qui avait développé un instrument utilisant des pendules. 0 – 0,1 90 100 110 120 Temps (jour) Figure 3 – Exemple de marée d’après un enregistrement de 30 jours réalisé à Bondy La Lune et le Soleil exercent des attractions gravitationnelles périodiques. Leur influence se traduit également par une déformation de la Terre solide, la longueur du rayon terrestre pouvant ainsi fluctuer jusqu’à 56 cm. Les variations des attractions gravitationnelles de la Lune et du Soleil ainsi que les déplacements verticaux des points de mesure sous leurs actions sont la source de ce que l’on appelle les marées gravimétriques, ou effet luni-solaire (figure 3). Ces effets peuvent être prédits théoriquement [2] avec une précision d’une dizaine de microgals. Notons toutefois que localement, par exemple dans des zones proches des côtes océaniques, les prédictions peuvent être moins précises du fait de la non-prise en compte des effets dus à l’océan (déplacement des masses océaniques et mouvement de la Terre solide sous l’effet des charges et décharges dues aux marées océaniques). On peut alors utiliser des algorithmes plus précis ou procéder à des enregistrements locaux. Les effets luni-solaires atteignent jusqu’à 300 μGal (3 · 10–7 <g >). Les changements de pression atmosphérique créent des variations de la pesanteur du fait des modifications de poids de la colonne d’air au-dessus des capteurs. Elles sont comprises suivant les auteurs entre 0,2 et 0,4 μGal/hPa. Merriam [3] suggère une valeur standard de 0,356 μGal/hPa. Les effets hydrologiques sont plus difficiles à quantifier. Des variations de la pesanteur sont créées par des variations de niveau de nappe phréatique, par des modifications de l’humidité des sols, par la neige, etc., c’est-à-dire le cycle de l’eau en général. Par exemple, une élévation d’un mètre de la nappe phréatique correspond à une augmentation de 42 μGal fois la porosité du milieu. variation de celle-ci. Par exemple, si on considère deux points de mesure A et B, et que l’on connaît la valeur absolue de la pesanteur g A en A, la mesure de la variation de la pesanteur entre A et B, g AB , permet de connaître la valeur de la pesanteur en B. On a vu (§ 1) que la variation de la pesanteur sur la Terre entre l’équateur et les pôles est de l’ordre de 5 Gal en tenant compte uniquement de la rotation et des variations du rayon terrestre entre l’équateur et le pôle. C’est un peu plus si l’on va du sommet de l’Everest au fond de la fosse des Mariannes (~ 8 Gal). Par conséquent, pour obtenir une précision relative de l’ordre de quelques microgals en tout point du globe, il « suffit » de faire des mesures relatives à 10–6 ou 10–7 près. Si les variations de la pesanteur auxquelles on s’intéresse sont plus petites, par exemple en dessous de quelques dizaines de milligals, on peut plus facilement obtenir des résultats très précis. Il s’agit là du domaine de la microgravimétrie qui est une méthode appliquée pour la prospection de la subsurface (notamment pour des recherches de cavités) ou mise en œuvre dans des domaines bien particuliers comme la volcanologie. Ainsi, on peut connaître la valeur de la pesanteur en tout point de mesure à la condition de connaître la valeur absolue en un point. Ce point particulier est ce que l’on appelle une base. On distingue plusieurs « ordres » de bases. Celles où des mesures absolues ont été réalisées sont évidemment les plus précises, puis il existe d’autres bases qui ont été « rattachées » grâce à des mesures relatives aux premières, et ainsi de suite. Bien évidemment, plus l’ordre de la base est élevé, moins précise est la valeur de g. Pour pouvoir comparer des mesures réalisées en différents endroits du globe, il est donc fondamental qu’un ensemble commun de bases soit utilisé par tous. C’est ainsi qu’un réseau standard international de la pesanteur a été adopté en 1971 par l’Association internationale de géodésie (AIG). Ce réseau est appelé IGSN71 (International Gravity Standardization Net). En France, 31 bases font partie de ce système. Ce n’est pas suffisant, et un réseau de bases additionnelles existe. Concrètement, une base est un point bien repéré géographiquement, facilement réoccupable et choisi dans un environnement a priori stable. Cependant, les réseaux de bases doivent être maintenus régulièrement, car beaucoup de bases disparaissent au cours du temps du fait de l’activité humaine (nouvelles constructions...). De plus, les appareils de mesure absolus et relatifs étant de plus en plus précis, les réseaux doivent être régulièrement améliorés. Le réseau français dit RGF83, pour Réseau gravimétrique français 1993, a été établi par le Bureau de recherches géologiques et Exemple : pour une porosité de 25 %, une montée d’un mètre conduit donc à une augmentation de 10 μGal. On voit donc qu’en fonction de la précision recherchée, il convient ou non de réaliser des mesures de gradient et des mesures annexes, et de prendre en compte ou non les effets de marée terrestre, les effets environnementaux, de connaître le cycle de l’eau. Exemple : pour des mesures très précises, on mesure la hauteur du capteur du gravimètre par rapport au point où l’on souhaite déterminer la valeur de g, la pression atmosphérique, etc. 2. Types de mesures. Réseaux de bases On distingue les instruments qui donnent accès à une mesure absolue de la pesanteur et ceux, relatifs, qui ne vont pas permettre de mesurer la valeur de l’accélération de la pesanteur, mais une R 1 814 − 4 Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur 40 Référence Internet R2345 Mesures géophysiques en mer par 1 Jean-Pierre LENOBLE Ingénieur géologue Ancien ingénieur de l’Institut français de recherche pour l’exploitation de la mer (Ifremer) 1. 1.1 1.2 Bathymétrie ............................................................................................... Échosondeurs multifaisceaux..................................................................... Cartographie ................................................................................................ 2. 2.1 2.2 2.3 2.4 Imagerie acoustique................................................................................ Principe......................................................................................................... Équipements ................................................................................................ Imagerie........................................................................................................ Utilisation ..................................................................................................... — — — — — 8 8 9 12 15 3. 3.1 3.2 3.3 3.4 Sondeurs à sédiments ............................................................................ Principe......................................................................................................... Équipements ................................................................................................ Traitement du signal.................................................................................... Utilisation ..................................................................................................... — — — — — 16 16 17 18 18 4. 4.1 4.2 4.3 4.4 4.5 4.6 4.7 Gravimétrie ................................................................................................ Principe......................................................................................................... Champs de pesanteur ................................................................................. Gravimètres.................................................................................................. Corrections des mesures ............................................................................ Interprétation ............................................................................................... Altimétrie satellitaire ................................................................................... Apports de la gravimétrie ........................................................................... — — — — — — — — 18 18 18 19 22 23 23 25 5. 5.1 5.2 5.3 Magnétométrie ......................................................................................... Principe......................................................................................................... Magnétomètres............................................................................................ Corrections ................................................................................................... — — — — 25 25 27 29 Pour en savoir plus........................................................................................... R 2 345 - 2 — 2 — 6 Doc. R 2 345 Parution : mars 2001 L a mer, malgré la transparence tant vantée de ses eaux, est un milieu opaque. Au-delà d’une dizaine de mètres, l’œil n’y voit que du bleu et quelques dizaines de mètres plus bas, c’est le noir complet. Pour explorer les fonds, analyser leur relief et leur nature, on doit recourir à des moyens indirects. Ces moyens ont fait longtemps défaut, laissant le champ libre à l’imagination. Depuis le milieu du siècle, ils se sont multipliés par le recours aux mesures géophysiques : mesures de champs comme la gravimétrie, le magnétisme et l’électromagnétisme ou mesure de la propagation d’ondes acoustiques ou mécaniques (sismique). Les buts poursuivis par ces méthodes sont de connaître : — la topographie générale du fond de la mer ; — les particularités de la surface du fond de la mer ; — la structure des formations géologiques situées sous le fond ; — la nature de ces formations ; — l’océan (contenant et contenu). Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Mesures et Contrôle 41 R 2 345 − 1 Référence Internet R2345 MESURES GÉOPHYSIQUES EN MER ________________________________________________________________________________________________________ Le premier objectif nécessite de recourir à la bathymétrie, avec l’utilisation d’échosondeurs à ultrasons et se traduit par la réalisation de cartes dites bathymétriques où le relief est indiqué par des courbes de niveau (isobathes) à l’image des cartes topographiques sur la terre ferme où les courbes de niveau sont des isohypses. 1 Le second objectif est actuellement obtenu par l’utilisation combinée d’images provenant de sonars à ultrasons et d’images obtenues par photographie ou télévision. Il se traduit par des cartes constituées de mosaïques d'images qui peuvent être superposées aux cartes bathymétriques. Pour atteindre le troisième objectif, on utilise l’analyse des échos provenant de la réflexion d’ondes acoustiques ou mécaniques sur les couches successives de sédiments ou de roches constituant le sous-sol de la mer. Aux ondes acoustiques, de fréquence allant de quelques kilohertz à quelques centaines de kilohertz, correspondent les sondeurs ou pénétrateurs à sédiments. Aux ondes mécaniques de fréquences plus basses (quelques hertz à quelques dizaines de hertz) correspondent les méthodes sismiques. Des informations sur la structure des couches profondes peuvent aussi être obtenues par les méthodes gravimétriques, magnétiques et électromagnétiques. L’obtention d’informations sur la nature des formations du sous-sol marin exige le recours à des prélèvements par carottage ou par forage, qui sortent du propos de cet article. Toutefois, les méthodes sismiques, gravimétriques, magnétiques et électromagnétiques donnent des indications sur les caractéristiques physiques de ces formations, qui peuvent servir à leur identification. La reconstitution de la structure et de la nature du sous-sol marin provient, comme à terre, de l’interprétation des données obtenues par une combinaison de méthodes indirectes (géophysique) et directes (prélèvement). Nous parcourrons ci-après les diverses méthodes géophysiques actuellement en usage : bathymétrie, imagerie acoustique, sondeurs à sédiments, gravimétrie, magnétométrie. Les méthodes sismiques ne font pas l’objet de cet article. 1. Bathymétrie le produit de la puissance d’émission par la durée τ. Pour éviter les phénomènes de cavitation, on doit limiter cette puissance. Par suite, on agit sur la durée d’impulsion. Cependant, une durée longue diminue le pouvoir séparateur, deux C réflecteurs séparés par une distance τ ---- ne pouvant être discernés. 2 On l’ajuste, suivant la profondeur, entre 2 et 10 ms pour conserver le maximum de résolution ; — la période de répétition T doit être choisie pour éviter qu’une impulsion revienne aux sondeurs avant que la suivante ne soit émise. Pour les sondeurs à faisceaux larges par grande profondeur, la période de répétition était d’une seconde, car on intercalait les émissions et les réceptions, connaissant pour chaque réception le retard en secondes entières que l’on devait ajouter à l’enregistrement. Elle est en pratique ajustée automatiquement par le sondeur suivant la profondeur de la zone de travail et varie d’une à plusieurs dizaines de secondes ; — l’absorption de l’énergie sonore dans l’eau est fonction du carré de la fréquence f . Le coefficient d’absorption est d’environ un décibel par kilomètre pour des fréquences voisines de 10 kHz. Elle passe à 30 dB/km pour 100 kHz. C’est pourquoi les échosondeurs utilisent des fréquences voisines de 12 kHz. 1.1 Échosondeurs multifaisceaux 1.1.1 Principe des sondeurs à ultrasons Un signal acoustique est envoyé au temps t0 par un émetteur situé en surface en direction du fond. Lorsqu’il atteint celui-ci, une partie de l’onde est réfléchie vers la surface et le signal-retour sera enregistré par un récepteur au temps t1 . La profondeur z est obtenue par la formule : 1 z = ----- C ( t 1 – t 0 ) 2 z (m) profondeur, C (m/s) vitesse de l’onde en déplacement dans l’eau, t (s) temps. Le signal est composé d’une brève impulsion de durée τ, émise à la fréquence f . Ce signal sera répété à intervalles réguliers toutes les T secondes. De la valeur choisie pour ces trois paramètres dépend l’efficacité du sondage : — la durée d’impulsion τ va déterminer la capacité de pénétration du sondeur, mais aussi son pouvoir séparateur. La profondeur atteinte par l’onde sonore dépend de l’énergie émise. Celle-ci est avec R 2 345 − 2 La cavitation est la formation de petites bulles de vapeur d’eau dont l’éclatement produit des ondes de chocs provoquant des perturbations sonores et des dégâts sur les céramiques des transducteurs. Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Mesures et Contrôle 42 Référence Internet R2345 _______________________________________________________________________________________________________ MESURES GÉOPHYSIQUES EN MER Historique de la bathymétrie La première question posée à l’explorateur est évidemment celle de la profondeur. Les abîmes insondables ont disparu, mais ils existaient encore au milieu du XIXe siècle. Les premiers explorateurs eurent quelques problèmes pour mesurer la profondeur dès que celle-ci dépassait les deux milles mètres. La première difficulté était d’avoir des lignes de sonde, faites de chanvre torsadé, capables d’atteindre plusieurs kilomètres de long. On réalisa des brins relativement courts en les reliant par des tourillons afin d’éviter qu’ils se détordent. Par ailleurs en haute mer, les navires dérivaient au vent, la ligne de sonde prenait une pente oblique et son lest n’atteignait jamais le fond. C’est ainsi qu’en 1854, furent encore reportées des profondeurs fantastiques de plus de 15 000 m, sur la carte de l’Atlantique nord établie par Matthew Fontaine Maury [1]. En 1840 pourtant, Sir James C. Ross réussit à mesurer une profondeur de 2 425 fathoms (4 437 m) dans l’Atlantique sud à bord du HMS Erebus. Il avait utilisé une chaloupe supportant un touret de près de 6 600 m de ligne de chanvre. Celle-ci était manœuvrée par les rameurs de façon à ce que le fil de sonde reste vertical. Des marques permettaient de mesurer la vitesse de descente : un brusque ralentissement de celle-ci indiquait que le fond avait été atteint [1]. Une vérification a été opérée en 1968 par le navire de recherche américain Discoverer utilisant un sondeur acoustique conventionnel. La différence observée, compte non tenu de l’imprécision du positionnement commun aux deux époques, est inférieure à 1 %. Pourtant la carte de Maury réalisée à partir de tels moyens fait déjà apparaître la présence d’une ride médio-atlantique. Mais il fallut attendre 1961 pour que les premières cartes physiographiques des océans, établies à partir d’une compilation de profils bathymétriques par Marie Tharp et Bruce Heezen du Lamont Geological Observatory, montrent l’extension des dorsales dans les trois océans [2]. La première utilisation, imaginée en 1917 par Paul Langevin, des propriétés piézo-électriques du quartz pour détecter les sousmarins par ultrasons, n’eut pas le temps d’être réellement mis en œuvre avant la fin de la Première Guerre mondiale [E 1 910] (référence [3]). Vers 1920, P. Marti, un ingénieur hydrographe, utilisa la réflexion du son pour effectuer un levé de la pente continentale du golfe du Lion [2]. Mais cette expérience ne fut pas poursuivie, bien qu’en 1935 le Norvégien Sund utilisât les ultrasons pour détecter les bancs de morue [4]. Ce fut vraiment la construction en masse de transducteurs acoustiques dédiés à la lutte sous-marine pendant la Seconde Guerre mondiale qui fournit les moyens de la bathymétrie moderne. Nombre de navires étaient équipés à la fin de la guerre de sondeurs acoustiques leur permettant de mesurer la profondeur. Les navires océanographiques reçurent des outils plus perfectionnés capables de meilleures performances. Malgré la réticence des autorités militaires, des cartes de plus en plus précises commencèrent à être élaborées par les différentes institutions scientifiques. Jusqu’alors on utilisait la technique du pinceau large, directement issu des besoins de détection d’objets sous-marins. Ces équipements envoyaient une onde acoustique dans un cône dont l’angle au sommet était d’une quarantaine de degrés. La surface du fond insonifiée dépend évidemment de la profondeur. D’un diamètre de l’ordre de 150 m sur le plateau continental, on passe à 3 000 m dans les plaines abyssales situées à 4 000 m de profondeur. Il est évident que la restitution du relief s’en ressent. Un ressaut brutal, comme une falaise, se traduira sur le sonogramme par une flexure à faible pente. À l’époque, la présence de telles structures restait complètement inaperçue, bien que les arts traînants (chalut, drague, etc.) faisaient état de croches très brutales et les photographies du fond, d’escarpements bien marqués. Dans le courant des années 1970, apparurent sur le marché des sondeurs à pinceaux étroits de quelques degrés d’angle qui donnaient une bien meilleure précision. Mais le positionnement des profils successifs, souvent basé une navigation à l’estime, laissait à désirer. Le positionnement par satellites du système Transit, ne fournissait des points que toutes les deux heures au mieux et avec une précision très discutable : au mieux 100 m, parfois plusieurs kilomètres en raison des aléas de réception radio. Pour obtenir une cartographie précise, il fallait disposer d’une navigation radioélectrique ou d’un positionnement acoustique utilisant des transpondeurs sur le fond. Le levé des profils demandait beaucoup de temps et la méthode ne pouvait être utilisée que pour des objectifs de faibles dimensions. Un cartographe dessinait ensuite des isobathes en interpolant entre les lignes de sonde. À la fin des années 1970, la marine américaine autorisa ses fournisseurs à vendre, pour un usage civil, des échosondeurs multifaisceaux, d’un type simplifié par rapport à ceux utilisés depuis plusieurs années pour des besoins militaires. Le Centre national pour l’exploitation des océans CNEXO (devenu depuis l’Institut français de recherche pour l’exploitation de la mer - Ifremer) fut le premier à acquérir un tel équipement en 1977, qu’il installa sur le navire océanographique Jean Charcot [5]. Ce fut une véritable révolution : l’appareil délivrait en temps réel une carte en courbes de niveau sur une bande de 3 km de largeur pour des fonds de 4 000 m (figure 1). Mise à part la constance de la vitesse du navire et sa dérive transversale éventuelle, la carte fournie était infiniment plus précise que celle qui aurait été obtenue par une série de profils parallèles utilisant des pinceaux étroits. Dans le même temps apparurent des lochs à effet Doppler mesurant la vitesse du navire par rapport au fond ou sur une grande épaisseur d’eau et non plus par rapport à l’eau de surface. Une meilleure connaissance de la vitesse du navire permettait d’effectuer des corrections de dérive et de vitesse apparente et donnait un meilleur rendu de la bathymétrie. La mise en service en 1994 du système de navigation par satellites Navstar/GPS (Global Positioning System ) apporta une précision jamais égalée au positionnement en haute mer : 100 m pour les usages civils avec une amélioration possible à 10 m en utilisant un dispositif différentiel [E 6 600] (référence [6]). Les échosondeurs multifaisceaux se sont depuis quelques années considérablement perfectionnés grâce à la puissance des calculateurs embarqués. Ils disposent d’un plus grand nombre de faisceaux balayant une plus grande largeur du fond et d’une intégration dans des complexes informatiques traitant conjointement la navigation. 1.1.2 Transducteurs La piézo-électricité fut découverte en 1880 par Pierre et Jacques Curie. Mais c’est Paul Langevin, durant la guerre de 1914-1918, qui eut le premier l’idée de l’utiliser pour produire des ultrasons pour la détection des sous-marins. Certains cristaux, comme le quartz, le tartrate de sodium et de potassium (sel de Seignette ou de la Rochelle), le monophosphate d’ammonium (ADP), le tartrate d’éthylène diamine (EDT) et le tartrate dipotassique (DKT) et certaines céramiques (titanates, niobates et zirconates de plomb, calcium et baryum) ont la propriété de se polariser électriquement lorsqu’ils sont soumis à une déformation. Réciproque- Les signaux acoustiques sont émis et reçus par des antennes acoustiques. Le projecteur est un émetteur d’ultrasons qui transforme un courant électrique en pression acoustique communiquée à l’eau. À l’inverse, l’hydrophone, qui assure la réception des ultrasons, transforme une pression acoustique en tension électrique. Tous deux sont des transducteurs de constitution similaire faisant appel à la piézo-électricité, la magnétostriction ou l’électrostriction. Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Mesures et Contrôle 43 R 2 345 − 3 1 Référence Internet R2345 MESURES GÉOPHYSIQUES EN MER ________________________________________________________________________________________________________ électrique va vibrer sous l’action du champ induit par un courant alternatif passant dans le bobinage. Inversement, si on sollicite le barreau par des pressions et des tractions alternatives, on induit dans le bobinage un courant alternatif de même fréquence [E 1 880] (référence [8]). 1 Certains matériaux dits ferroélectriques se déforment sous l’action d’un champ électrique : c’est l’électrostriction. La déformation varie ici comme le carré du champ électrique contrairement à l’effet piézo-électrique qui est linéaire. Pour produire ou détecter des ultrasons, on utilise le titanate de baryum, le zircotitanate de plomb ou le niobate de plomb façonnés sous forme de céramiques frittées. On peut leur imposer une polarisation permanente et leur donner par moulage et meulage les formes adaptées aux modes de vibration les plus efficaces [3] [9]. 20° 2° Les transducteurs sont construits de manière à émettre ou recevoir des ondes sonores dans une direction privilégiée. L’onde émise par un projecteur cylindrique n’est cependant pas limitée à un simple cône circulaire. Si on construit le diagramme de directivité du transducteur (figure 2), on constate qu’il présente un lobe principal dans l’axe de directivité dont la largeur est l’angle 2θ3 pour lequel l’intensité sonore est égale à la moitié de l’intensité maximale dans la direction du lobe principal. Route du navire a pinceau large et étroit b multifaisceau Figure 1 – Sondeurs à pinceaux large et étroit et sondeurs multifaisceaux Les sondeurs multifaisceaux utilisent des transducteurs assemblés de manière particulière pour constituer des antennes émettrices et réceptrices (tableau 1). 2 θ3 Lobe principal 1.1.3 Antenne émettrice D (dB) 0 –3 L’antenne émettrice est constituée de manière à insonifier une zone très mince dans le sens longitudinal du navire (environ o 2 d’angle) et très large dans le sens transversal. Les premiers sondeurs multifaisceaux couvraient un angle d’environ 40o, les plus récents peuvent couvrir 90 o et plus (150 o pour l’EM 12D de Simrad) [10]. La zone insonifiée sur le fond est l’intersection d’un plan horizontal avec le solide de révolution engendré par la rotation d’un secteur angulaire d’angle 2 θ3 (correspondant au lobe principal) autour de l’axe ∆ de l’antenne (figure 3). Ce n’est donc pas un rectangle, mais une surface délimitée par deux hyperboles symétriques. Celle-ci a par exemple à 1 000 m de profondeur une largeur de 30 m à l’axe et de 120 m à la périphérie (ouverture 2 × 75o). – 10 – 20 – 30 Lobes secondaires – 40 – 50 Suivant les fabricants, l’émission va se faire par un faisceau unique ou suivant plusieurs secteurs (4 à 5) émettant simultanément, éventuellement dans des fréquences légèrement différentes pour éviter les interférences. Le pointage de l’antenne doit compenser les mouvements du navire et en particulier le roulis. Cette compensation peut se faire en utilisant une antenne galbée comme l’antenne semi-cylindrique du sondeur EM 1000 de Simrad, dont on n’active que les projecteurs pointés dans la bonne direction pour corriger le roulis. On peut aussi faire pivoter l’antenne, solution utilisée dans l’EM 1000 pour compenser le tangage. Pour les sondeurs de grande profondeur, on préfère diriger l’émission en jouant sur le déphasage de l’alimentation des projecteurs. La compensation peut se faire en roulis et en tangage à partir d’une centrale d’acquisition de ces paramètres. Elle est cependant limitée à des mouvements de l’ordre de 15 o en roulis et d’une dizaine de degrés en tangage. Cela implique que le système soit monté sur des navires ayant une bonne stabilité et que l’on ne cherche pas à travailler par des mers trop fortes. Le TSM 5265, alias Seafalcon 11, de Thomson Marconi génère cinq émissions successives avec des fréquences légèrement différentes (11,4 ; 11,7 ; 12 ; 12,3 et 12,6 kHz), orientées électroniquement de façon à compenser les trous qui proviendraient de l’avance du navire entre chaque sondage [11] [12]. De telles antennes sont composées d’une série de projecteurs circulaires en céramique de petit diamètre (384 de 5 cm de diamètre dans l’EM 12 ; 156 regroupés en 13 modules dans le Seafalcon 11). Ceux-ci sont disposés côte à côte à l’intérieur d’une enceinte rectangulaire carénée allongée dans le sens longitudinal D = 10 lg Ia /I (Ia intensité axiale, I moyenne de l'intensité dans toutes directions) 2θ3 largeur du lobe principal Figure 2 – Diagramme de directivité d’un transducteur en coordonnées polaires [10] ment, ils se déforment lorsqu’ils sont soumis à une polarisation électrique [3] [7]. Ces matériaux soumis à un courant haute fréquence produisent des vibrations d’autant plus intenses que l’on se rapproche de leur fréquence mécanique propre. De nouveaux matériaux, comme le polyvinydilène difluoride (PVDF) utilisé par Thomson, présentent des caractéristiques tout à fait intéressantes en termes de sensibilité, de bande passante et de faible impédance acoustique. (0) La magnétostriction fut utilisée dès 1935 pour la production d’ultrasons dans la conception de sonars par R.W. Wood, Smith et McGeachy. Elle utilise la propriété qu’ont les matériaux ferromagnétiques de se déformer lorsqu’ils sont soumis à une aimantation. Un barreau de nickel ou de ferrite placé dans un bobinage R 2 345 − 4 Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Mesures et Contrôle 44 Référence Internet R2345 _______________________________________________________________________________________________________ MESURES GÉOPHYSIQUES EN MER Tableau 1 – Caractéristiques de quelques sondeurs multifaisceaux (données disponibles) Nombre de faisceaux Profondeur P (kHz) Hollming Echos 625 Echo XD 12 15 à 45 15 4 × 15 Odom [58] Echoscan 200 Reson [59] Sea Bat 8101 Sea Beam [60] Sea Beam Sea Beam 2000 Sea Beam 2112 Sea Beam 1185 Sea Beam 1055 Fréquence Largeur de couloir (1) Imagerie intégrée (cf. § 2.2.4) 100 à 5 000 60 à 6 000 0,7 P 2P oui non 101 2 à 100 7,4 P oui 100 101 2 à 300 7,4 P oui 12 12 12 180 180 16 45 149 126 126 100 à 10 000 100 à 10 000 50 à 11 000 1 à 300 10 à 1 500 0,66 P 2P 7 à 2 P (24 km) 8P 8 à 1,2 P non oui oui oui oui Simrad [61] EM 3000 EM 3000D EM 1000 EM 300 EM 12S EM 12D EM 121 300 300 95 30 13 13 12 127 254 120 135 81 162 121 0,5 à 200 0,5 à 200 2 à 1 000 5 à 5 000 50 à 11 000 50 à 11 000 10 à 11 000 4 10 7,5 6 3,5 2,5 3,5 SNT-Atlas [62] Hydrosweep Fansweep 15 12 200 59 600 Thomson Lennermor Seafalcon 11 12 12 20 5 × 400 Triton [21] Hydro Suite 150 200 128 Type (m) P (200 m) P (250 m) P (1 000 m) P (5 000 m) P (18 km) P (22 km) P (25 km) oui oui oui oui oui oui oui 2P oui oui 8 à 500 80 à 11 000 2P 3,5 P oui oui 0,5 à 300 7,4 P oui (1) Valeur maximale entre parenthèses. du navire, qui sera placée sous la coque. Les dimensions d’une telle antenne peuvent varier de 1 à 6 m de long et de 5 à 60 cm de large, suivant le type et la marque. Pour augmenter l’efficacité et la largeur balayée, on peut disposer deux antennes symétriques, à bâbord et à tribord, comme pour l’EM 12D de Simrad qui couvre ainsi 150o. y ∆ 1.1.4 Antenne réceptrice x 2θ3 L’antenne réceptrice devra « écouter » les échos réverbérés par le fond dans une zone plus large que la partie insonifiée de manière à tenir compte du tangage lors de la réception. Cette zone est divisée en bandes d’écoute de quelques degrés, parallèlement à l’axe du navire (figure 4). Les faisceaux seront distribués régulièrement, mais avec un recouvrement plus ou moins important. Ainsi l’EM 12 possède 81 faisceaux espacés de 1,1o couvrant une bande de 90o par 18o. L’angle d’ouverture dans le sens transversal varie de 3,5o pour les faisceaux proches de la verticale à 5o pour les plus obliques. La zone de réception aura ainsi une dimension qui variera de 1,5 à 10 m transversalement à l’axe du navire et de 10 à 200 m longitudinalement, suivant la profondeur et le type de sondeur utilisé. z Figure 3 – Surface insonifiée par le faisceau émetteur [10] maximale (MAD Maximum Amplitude Direction ), permet de discriminer les mesures à intervalles d’un milliradian (0,06 o) ; on peut ainsi obtenir jusqu’à 2 000 mesures par cycle de sondage. L’antenne est composée de plusieurs centaines d’hydrophones disposés par séries (210 hydrophones en 42 barreaux de 5 hydro- Le Seafalcon 11 utilise deux méthodes pour effectuer les mesures. L’une, basée sur le niveau d’énergie, forme 150 faisceaux séparés de 1o. L’autre méthode, basée sur la direction d’amplitude Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Mesures et Contrôle 45 R 2 345 − 5 1 Référence Internet R2345 MESURES GÉOPHYSIQUES EN MER ________________________________________________________________________________________________________ sr Sr Sr max Sr xi 1 (1/2) Sr max di sr zi G θi Faisceau émetteur tr2 tr1 t sr = f (t ) amplitude du signal retour temps correspondant au barycentre de tr1 la surface engendrée par la courbe sr tr2 temps correspondant à la moitié de la valeur maximale de Sr = F (t ) = #sr dt Faisceau récepteur Figure 5 – Détermination de l’instant retour [10] Figure 4 – Disposition des faisceaux émetteurs et récepteurs d’un sondeur multifaisceau [29] tue, par combinaison des séries d’hydrophones, deux demi-voies dont on mesure en permanence la variance du déphasage des impulsions sonores reçues, en affectant à l’une d’elles un déphasage correcteur proportionnel au sinus de l’angle d’inclinaison du faisceau étudié. Cette variance va s’annuler à l’instant où on reçoit le signal provenant du point situé dans la direction d’inclinaison. On peut ainsi déterminer cet instant même pour un signal faible reçu avec un niveau de bruit important. phones pour l’EM 12 ; 450 en 90 barreaux répartis dans 5 modules pour le Seafalcon 11). L’ensemble a une forme rectangulaire de 1 à 3 m de longueur et 5 à 50 cm de largeur suivant les modèles et est installé transversalement à l’axe du navire. La qualité de réception dépend évidemment du niveau de réverbération (appelée aussi réflexion diffuse ou rétrodiffusion) de l’onde acoustique sur le fond, du niveau de bruit de fond naturel de la mer ou du bruit créé par le navire. Le premier dépend de la dureté et de la rugosité du fond. Il varie de – 30 à – 40 dB. Le bruit naturel de la mer dépend de l’état de la mer, il est de moins de 40 dB pour une mer calme et de 45 dB pour un état de mer 4. Le bruit créé par le navire est de l’ordre de 40 à 50 dB. C’est ainsi que la couverture de l’EM 12 est limitée à 19 km pour un fond avec une forte réverbération (– 30 dB) et un fort niveau de bruit (50 dB) ou pour un fond à faible réverbération et un faible niveau de bruit (40 dB). 1.1.5 Traitement des signaux reçus Les signaux analogiques provenant des hydrophones sont regroupés par rangées pour former les canaux d’entrée du dispositif de traitement. Ils sont amplifiés, filtrés pour éviter les bruits parasites et le gain est ajusté de manière à obtenir un niveau identique quelle que soit la profondeur. Ces signaux sont ensuite convertis en signaux numériques. Les différents hydrophones enregistrent des échos provenant des différents points insonifiés, qui se superposent. Ceux provenant d’un même point sont reçus par les hydrophones avec un déphasage dépendant du chemin parcouru et donc de l’angle sous lequel revient le signal. En combinant ces différents signaux légèrement déphasés, on constitue une voie qui ne correspond qu’aux échos provenant d’une direction précise. Ces voies sont autant de faisceaux récepteurs inclinés. Les combinaisons d’hydrophones et de déphasages pour former les voies sont évidemment très nombreuses. Chaque fabricant a développé ses propres algorithmes en fonction de la puissance de calcul disponible et des caractéristiques du matériel utilisé. Par combinaison de différentes méthodes, on finit par obtenir une série de valeurs précisant l’inclinaison de la voie, l’instant retour correspondant, ainsi que la valeur de l’amplitude du signal à cet instant retour. On pratique alors un certain nombre de corrections qui tiennent compte des mouvements de pilonnement du navire, de la profondeur d’immersion des antennes et de la variation de la célérité du son dans la colonne d’eau. Cette dernière correction est essentielle pour tenir compte de la trajectoire réelle de l’onde sonore (figure 6). On calcule alors pour chaque faisceau, à l’instant t correspondant à la moitié du temps moyen de parcours des ondes acoustiques aller et retour, la profondeur zi et la distance transversale di correspondant à chaque faisceau i , ainsi que l’amplitude du signal retour. Ces données vont servir au tracé de la bathymétrie, après recoupement avec les données de navigation. L’analyse du signal doit aussi déterminer l’instant spécifique correspondant à l’écho de retour. Généralement, on ne retient du signal que ce qui intervient dans une fenêtre d’écoute, ajustée par rapport aux balayages précédents. Puis l’instant retour est choisi, soit comme le temps correspondant au barycentre de la surface générée par la courbe mesurant l’amplitude du signal en fonction du temps (au-dessus d’un seuil donné et dans une fenêtre déterminée), soit comme le temps correspondant au moment où est atteinte la moitié de la valeur maximale des amplitudes cumulées (figure 5). 1.2 Cartographie Dans un cas comme dans l’autre, cette valeur est d’autant moins précise que le faisceau considéré est incliné. La réflexion du signal est alors plus faible et la surface insonifiée étant plus étendue, les retours s’étendent sur une plus longue période. Pour les inclinaisons supérieures à 15-20o, on utilise l’interférométrie. On consti- R 2 345 − 6 Contrairement à la topographie dont le niveau de référence est celui de l’ellipsoïde géodésique et l’axe positif orienté vers le zénith, la bathymétrie a pour surface de référence la surface de la mer et l’axe positif des mesures est dirigé vers le nadir. Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Mesures et Contrôle 46 Référence Internet R2345 _______________________________________________________________________________________________________ C (m/s) 1 500 1 480 1 520 500 métrique en temps différé) et de logiciels servant au traitement de l’imagerie sonar (MAITREIS, IMAGEM, TRIAS). Le système CARAIBES est capable de prendre en compte des données provenant de la plupart des sondeurs multifaisceaux existant sur le marché {Simrad (EM 950, EM 1 000, EM 12S et EM 12D), L-3 Communications Sea Beam Instruments (Sea Beam 2100), Thomson (Lennermor, Seafalcon 11), Krupp-Atlas (Hydrosweep), Hollming (Echos XD), Furuno, etc.}. Il importe aussi les données de navigation provenant de la plupart des systèmes existants. Il est capable également de traiter et d’archiver les données d’environnement (gravimétrie, magnétisme, météorologie, cap, roulis, tangage, etc.). L’ensemble de ces données sont archivées sur disques magnétiques et sur disques optiques numériques. Il permet la création de profils de célérité (vitesse du son dans l’eau en fonction de la profondeur) à partir de données de tirs Sippican. Il comporte deux ensembles logiciels : — CARAIBES_TR pour les traitements en temps réel. Il assure la mise au format et l’archivage des données et crée des index d’accès qui en faciliteront l’accès ultérieur. Il visualise la carte bathymétrique sous forme d’isobathes dans le repère choisi par l’utilisateur avec diverses fonctions (zoom, panoramique, suivi du navire, création de profils, ajout de trait de côte, de route prévisionnelle, de plan de station, de chemin de câbles, etc.). Il assure aussi la visualisation de l’imagerie lorsque celle-ci est disponible. Il permet de visualiser également les données d’environnement sous forme de profils le long de la route du navire et de traiter les profils de célérité par filtrage en les complétant à partir de la base de données mondiales Levitus ; — CARAIBES_TD pour les traitements en temps différé. Il comporte deux modules l’un traitant les données de bathymétrie, l’autre les données d’imagerie. Dans chaque cas, le logiciel assure l’importation et l’archivage des données de navigation et différents filtrages et corrections préparant les données pour la cartographie. Il permet la visualisation et l’impression de cartes isobathes et prépare les données pour l’exportation au format d’autres programmes de cartographie (ArcView, Cartolib,...). x Couche superficielle Thermocline saisonnière α Thermocline principale 1 000 1 500 Trajectoire réelle 2 000 2 500 Trajectoire rectiligne 3 000 z (m) MESURES GÉOPHYSIQUES EN MER Écart d'incidence Fond Figure 6 – Célérité et trajectoire d’une onde acoustique [10] 1.2.1 Cartographie en temps réel Les constructeurs de sondeurs multifaisceaux proposent un ensemble de logiciels permettant d’obtenir des cartes bathymétriques en temps réel, en fait quelques minutes après l’émission du signal. Ces logiciels assurent la fusion du fichier des données venant du sondeur (t, {di , zi }) avec les données de navigation qui donnent la position du navire en fonction du temps (t, x, y ). On obtient ainsi une table de données (xi , yi , zi ) qui va permettre le tracé des isobathes. La plupart de ces logiciels n’offrent que peu de possibilités de validation et de correction des données avant tracé, et le résultat obtenu ne satisfait pas complètement les utilisateurs. En particulier, le filtrage des bruits, des sondes erronées ou la correction de la navigation, surtout avant l’apparition du GPS, laissent à désirer et les cartes obtenues comportent de nombreuses aberrations topographiques. 1.2.3.1 Dépouillement de la navigation Le dépouillement de la navigation prend en compte les données provenant : — du gyrocompas et des lochs doppler et électromagnétique ; — de différents types de récepteurs de navigation par satellites GPS ; — de récepteurs de navigation par satellites Transit ; — de récepteurs de navigation radioélectrique (Loran C, Syledis, Omega, Toran, Decca, etc.). Ces données sont visualisées et filtrées de manière interactive. On travaille d’abord sur les données d’estime (cap et vitesse) en éliminant les données aberrantes, en lissant et en interpolant les valeurs par méthodes graphiques à la console. Ces données corrigées sont confrontées à la navigation GPS et aux autres navigations disponibles, par visualisation graphique. On cherche la représentation la plus précise de la route suivie par le navire et à connaître l’angle de dérive du bateau, qui est la différence entre le cap et la route fond. En effet, les mesures bathymétriques issues des différents faisceaux sont perpendiculaires au navire, donc au cap, mais pas forcément à la route. Il faut aussi tenir compte des recouvrements des faisceaux lors des évolutions du navire. Après correction, les données sont enregistrées sous format utilisable par le programme de cartographie, sous la forme de positions successives du navire en coordonnées géographiques (ti , ϕi , Gi ) ou métriques (ti , xi , yi ). 1.2.2 Cartographie en temps différé Les utilisateurs ont fait développer tout d’abord des logiciels permettant le retracé de la carte à partir des données brutes enregistrées sur disque optique numérique. L’apparition de cette technologie a permis le stockage et la relecture rapide de vastes quantités de données sur de faibles volumes (plusieurs gigaoctets), ce qui était pratiquement impossible lorsque l’enregistrement se faisait sur des bandes magnétiques. On peut alors visualiser les données brutes et les corriger soit en faisant intervenir des algorithmes, soit par intervention de l’observateur. Le rejeu des données de navigation permet aussi leur filtrage et leur correction ainsi que la prise en compte des dérives du navire enregistrées par le loch doppler, les systèmes de navigation radioélectrique ou par satellite. Après filtrage et fusion des données, l’opération de tracé peut utiliser plusieurs techniques cartographiques plus ou moins sophistiquées. 1.2.3 Logiciel CARAIBES À titre d’exemple, nous allons succinctement décrire les opérations effectuées par le logiciel CARAIBES (CARtographie Appliquée à l’Imagerie et à la BathymétriE des Sonars et sondeurs multifaisceaux), mis au point par l’Ifremer. Ce logiciel est la troisième génération de systèmes développés par cet organisme pour le traitement de la bathymétrie et l’imagerie sonar. Le logiciel actuel provient de la refonte des logiciels ARCHIV (archivage des données brutes du sondeur sur disque optique numérique), VIDOSC (visualisation des données en temps réel le long de la route du navire), TRINAV (dépouillement de la navigation), TRISMUS (carte bathy- 1.2.3.2 Dépouillement de la bathymétrie Le dépouillement des données de bathymétrie utilise les données fournies par le sondeur multifaisceau. Pour chaque cycle, on enregistre : — la date et l’heure ; — l’attitude du navire à la transmission (cap, roulis, tangage et pilonnement) ; Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Mesures et Contrôle 47 R 2 345 − 7 1 1 48 Référence Internet TE5228 Géoradar Principes et applications par 1 Florence SAGNARD Ingénieur en sciences et technologies de l’université Pierre et Marie Curie Docteur en physique de l’université Paris-Sud Orsay Habilitée à diriger les recherches de l’université Marne-la-Vallée Chargée de recherche, Institut français des sciences et technologies des transports, de l’aménagement et des réseaux (IFSTTAR), département COSYS, Villeneuve-d’Ascq, France et Fayçal REJIBA Parution : avril 2016 - Dernière validation : décembre 2018 Ingénieur en génie civil de l’École nationale d’ingénieurs de Tunis (ENIT) Docteur en géophysique appliquée de l’université Pierre et Marie Curie, Paris 6 Habilité à diriger des recherches de l’université Pierre et Marie Curie, Paris 6 Maître de conférences à l’université Pierre et Marie Curie , Paris 6, Paris, France TE 5 228v2 - 2 — 2 — 3 — 4 — 4 — 4 — 5 1. 1.1 1.2 1.3 1.4 1.5 1.6 Principe du géoradar et propagation dans les sols.................... Principes ................................................................................................... Propriétés électriques des sols ............................................................... Propagation électromagnétique dans le sol.......................................... Génération des hyperboles..................................................................... Techniques de modulation ..................................................................... Réglementations ...................................................................................... 2. 2.1 2.2 2.3 2.4 Stratégie de prospection ................................................................... Principes ................................................................................................... Positionnements de mesure ................................................................... Géométrie des antennes ......................................................................... Problématique d’investigation................................................................ — — — — — 5 5 5 7 7 3. 3.1 3.2 Modélisations électromagnétiques................................................. Problème posé ......................................................................................... Modélisation électromagnétique des systèmes géoradar par la méthode des différences finies dans le domaine temporel ...... — — 9 9 — 10 4. 4.1 4.2 4.3 Traitement des signaux reçus .......................................................... Objectifs et précautions préalables ........................................................ Radar de surface : traitements de données avancés ............................ Radar de forage : inversion de données ................................................ — — — — 10 10 10 13 5. 5.1 — 14 — 14 — 14 5.4 Quelques exemples d’applications.................................................. Archéologie : détection de cavité (latrine du château de Chambord, France) ...................................................................................................... Hydrogéologie : détection d’un front d’humectation (Niayes près du lac Tanma, Sénégal)..................................................... Étude stratigraphique d’un glacier rocheux (Plan du Lac, Vanoise, France)................................................................ Génie civil : détection de canalisations enterrées................................. — — 14 15 6. Conclusion ............................................................................................. — 15 7. Glossaire ................................................................................................. — 17 5.2 5.3 Pour en savoir plus ........................................................................................ Doc. TE 5 228v2 e géoradar (en anglais GPR pour Ground Penetrating Radar) est une technique de prospection géophysique non destructive fondée sur l’analyse des phénomènes de propagation (réfraction, réflexion et diffraction) des ondes L Copyright © – Techniques de l’Ingénieur – Tous droits réservés 49 TE 5 228v2 – 1 Référence Internet TE5228 GÉORADAR ________________________________________________________________________________________________________________________ 1 électromagnétiques hautes fréquences (10 MHz à 2 GHz) dans le sous-sol. Le géoradar, initialement de nature impulsionnelle, est fondé sur l’excitation du sous-sol, à partir d’une antenne d’émission, par un train d’impulsions de durée courte (1 à 50 ns) afin de détecter, à l’aide d’une antenne de réception, les échos successifs associés aux contrastes de permittivités ou de conductivités rencontrés par les ondes électromagnétiques au cours de leur propagation. Ces contrastes témoignent de la présence de cibles enfouies ou de stratifications du sous-sol. L’utilisation du géoradar fréquentiel est bien plus récente en raison des contraintes instrumentales qui lui sont associées, et il fait l’objet d’un nombre important de travaux de recherche actuels. C’est le déplacement du radar à la surface ou dans le sol qui permet d’acquérir des traces (coupes radar ou « scans ») sur une fenêtre temporelle, et de former des radargrammes (ou images radar) de la structure du sous-sol. On distingue les applications visant à détecter des objets ou des anomalies de celles ayant pour objectif la détermination des propriétés intrinsèques du sous-sol. Les applications sont multiples : géologie, hydrologie, glaciologie, environnement, prospection minière, néotectonique, archéologie, génie civil... Parmi ces applications, on peut citer la localisation d’objets enfouis métalliques ou non métalliques tels que les câbles, les conduites, les fondations, les ferraillages, les cavités, les zones altérées, les mines et la caractérisation des propriétés intrinsèques des matériaux géologiques (sols, roches) ou artificiels (béton, l’asphalte ou le bois). Chaque type d’application requiert une mise en œuvre expérimentale spécifique (acquisition en réflexion ou transmission, échantillonnage spatial, cartographie 2D ou 3D, fréquence nominale de l’excitation...) et des traitements associés aux signaux bruts (filtrage, migration, inversion des données) afin de reconstituer un modèle du sous-sol. L’amélioration de la détection par un système géoradar tient actuellement au développement de nouvelles techniques de traitement du signal et de tomographie. Nous présentons ici les diverses étapes qui conduisent à la définition des paramètres optimaux d’acquisition en prospection géoradar. 1. Principe du géoradar et propagation dans les sols Récepteur Affichage Stockage Émetteur 1.1 Principes Trajet direct dans l'air Source modulation Le géoradar (ou radar géologique) constitue l’une des méthodes géophysiques (sismique, électrique, magnétique, gravimétrique...) susceptible de fournir des informations sur la distribution, la nature, et la composition des matériaux composant le sous-sol terrestre. Le géoradar repose sur l’interprétation des signaux détectés en réflexion ou transmission suite à leur propagation dans le sous-sol (figure 1). L’allure des signaux est intrinsèquement reliée aux contrastes de permittivités et de conductivités électriques dans un milieu aux propriétés particulièrement hétérogènes, atténuantes et dispersives. Air Trajets directs TX Échantillonnage discrétisation Antenne radar RX Trajet Direct Sol dans le sol Trajet réfléchi sur R1 L’utilisation et le développement de la technique de prospection électromagnétique se sont considérablement accrus depuis les années 1980 conduisant ainsi à deux types de finalités : la caractérisation du sous-sol (texture, composition, teneur en eau) et la détection, la localisation et éventuellement l’identification d’objets enfouis (mines, tuyaux, cavités...) [1] [2] [3]. L’utilisation de différentes fréquences nominales (usuellement entre 10 MHz et 2 GHz) permet d’atteindre différentes profondeurs d’investigation et diverses résolutions spatiales (en pratique λ/2, λ = v /f étant la longueur d’onde associée à la vitesse de propagation v et la fréquence nominale f ), ces deux paramètres étant inversement proportionnels. La profondeur d’investigation est particulièrement délicate à estimer car elle résulte d’un compromis entre le choix de TE 5 228v2 – 2 Traitement de signal inversion Déplacement x e1 Discontinuité R1 Signal transmis Signal réfléchi e2 R2 Trajet réfléchi sur R2 Temps e3 Profondeur z Figure 1 – Schéma du principe de fonctionnement d’un géoradar de surface dans la configuration bistatique (émetteur et récepteur dissociés) Copyright © – Techniques de l’Ingénieur – Tous droits réservés 50 Référence Internet TE5228 ________________________________________________________________________________________________________________________ GÉORADAR la fréquence nominale et les caractéristiques atténuantes du milieu (essentiellement sa conductivité) pour obtenir une bonne pénétration des ondes électromagnétiques dans le sous-sol, et une résolution spatiale fine. Tableau 1 – Caractéristiques diélectriques de quelques constituants du sous-sol De façon générale, tandis qu’à basses fréquences (entre 10 et 100 MHz) la profondeur d’investigation est élevée (plusieurs mètres voir dizaines de mètres) et la résolution faible (quelques dizaines de centimètres à quelques mètres), à hautes fréquences (entre 1 200 MHz et 2 GHz), la profondeur d’investigation est plus faible (d’ordre décimétrique voir millimétrique) et la résolution élevée (environ dix fois plus faible). Elle dépend étroitement de l’atténuation intrinsèque du milieu, et en particulier de sa conductivité électrique. Par exemple, la profondeur d’investigation est quasi nulle dans une argile de conductivité supérieure à 10–1 S · m–1, et est considérable (plusieurs centaines de mètres) dans la glace propre qui apparaît transparente aux ondes radar (conductivité inférieure à 0,001 S · m–1). Permittivité réelle relative Conductivité Eau douce 81 < 0,001 Eau salée 81 1 000 3à4 0,001 à 0,01 Milieu Glace Sable sec 1.2 Propriétés électriques des sols Aux fréquences usuelles du géoradar, la majorité des sols présente des contrastes diélectriques bien plus significatifs que des contrastes magnétiques. Par conséquent, on supposera que la perméabilité est équivalente à celle du vide (µ = µ0 = 4 π × 10–7 H · m– 1). Les propriétés électriques (permittivité et conductivité) des matériaux géologiques et du génie civil sont des grandeurs complexes (au sens mathématique) qui dépendent généralement de la fréquence. Les lois de comportement diélectrique complexes traduisent des phénomènes de stockage d’énergie (partie réelle) et de perte d’énergie (partie imaginaire) [5] [6] [7]. Sachant qu’un sol est généralement un milieu hétérogène, on utilise la notion de permittivité complexe effective relative (par rapport à celle du vide ε0 = 1/(36 π × 109) F · m–1) pour exprimer ses propriétés électriques : 2,5 à 5 0,001 à 0,01 Calcaire sec 4à8 0,1 à 1 Granite 4à6 0,01 à 1 Grès 4à5 0,3 à 1 Argiles 3 à 60 0,1 à 300 Marnes 5 à 15 1 à 100 1 La permittivité réelle de l’eau (proche de 80) présente une valeur très supérieure à la plupart des constituants d’un sol (entre 3 et 9) et influence considérablement la permittivité effective réelle d’un milieu naturel aux fréquences radar. La permittivité effective peut donc être un très bon indicateur de la teneur en eau. Un sol étant un mélange aléatoire de divers constituants (gaz, solide(s), fluide(s)), sa permittivité effective réelle dépend des permittivités réelles de chacune des phases ainsi que de leur répartition géométrique dans le milieu. La difficulté de modéliser le comportement d’un sol a conduit à développer divers modèles pour exprimer sa permittivité réelle effective en fonction des caractéristiques diélectriques et géométriques des divers constituants. Par exemple, des modèles physiques (DEM, Differential effective Medium), des relations empiriques et semi-empiriques [5] [6]. (1) Les modèles semi-empiriques sont fondés sur des « lois de mélange ». Ces lois expriment le comportement diélectrique d’un milieu à plusieurs phases en fonction des permittivités réelles des matériaux constituants, des interactions électromagnétiques entre ces mêmes constituants, de leurs fractions volumiques, de la forme des inclusions, ainsi que d’autres paramètres caractérisant la microstructure du mélange. La multitude de lois de mélange reflète la difficulté réelle de modéliser un milieu hétérogène et la nécessité de les adapter à chaque type de milieu. où sont respectivement les parties réelle et imaginaire de la permittivité diélectrique, σ (S · m–1) est la conductivité électrique associée à un courant continu, ω = 2πf est la fréquence angulaire de l’onde électromagnétique de fréquence f, et j2 = – 1. Aux fréquences usuelles du géoradar, les principaux mécanismes de relaxation observés sont associés à la polarisation dipolaire. Ces mécanismes sont essentiellement induits indirectement ou directement par la présence d’eau dans les matériaux naturels, et les sols en particulier. Dans le cas de sols humides, la loi semi-empirique de puissance ou loi (Ulaby et al., 1985) associée à la permittivité réelle effective est la plus utilisée. Elle a pour expression : Les modèles analytiques les plus utilisés qui rendent compte de la dépendance fréquentielle de la permittivité complexe relative d’un milieu naturel sont fondés sur les modèles de Debye (1929), Cole-Cole (1941), ou Cole-Davidson (1951) [4] [5]. Ces modèles peuvent être exprimés à l’aide du formalisme général suivant : (3) où représentent respectivement la fraction volumique et la permittivité réelle du composant i du mélange, avec (2) . Le paramètre α est associé à la géométrie du mélange, et dépend de la direction du champ électrique incident . Tandis que la formule de Birchak et al. considère que α = 0,5 (formule de CRIM, Complex Refractive Index Model ), celle de Looyenga suppose que α = 1/3, et celle de Silberstein que α = 1. Fratticioli et al. ont introduit deux paramètres supplémentaires, une constante et un facteur multiplicatif [7]. avec εs et ε∞, qui s’expriment en F · m–1, les valeurs limites à basses et hautes fréquences de la partie réelle de εe respectivement, τ le temps de relaxation. Les paramètres α et β [sans dimension] représentent des facteurs d’amortissement . Dans le cas d’un seul pôle de relaxation, le modèle de Debye a pour paramètres (α = 1, β = 1), le modèle de Cole-Cole suppose que β = 1 et le modèle de Cole-Davidson que α = 0. Cependant, la relation précédente ne considère pas la géométrie des structures internes du milieu et la distribution microscopique des fluides, ceux-ci pouvant avoir des effets importants sur les pro- Le tableau 1 rassemble des valeurs de permittivité et de conductivité de matériaux usuels du sous-sol aux fréquences du géoradar. Copyright © – Techniques de l’Ingénieur – Tous droits réservés 51 TE 5 228v2 – 3 Référence Internet TE5228 GÉORADAR ________________________________________________________________________________________________________________________ (4) À la distance z = 1/α, l’atténuation de l’onde atteint la valeur de 1/e. Cette distance est une indication de la profondeur de pénétration de l’onde ; cependant, cette dernière dépend de plusieurs facteurs et notamment de phénomènes de diffractions générés par des objets de taille limitée (inférieure à λ) et des surfaces rugueuses qui ne sont actuellement pas considérés dans la relation (8). où φ2 est la fraction volumique de la phase dispersée dans la matrice et L est un paramètre associé à la forme des éléments de la phase dispersée. respectives de 6,17 et 54 dB · m–1 pour des conductivités σ variant de 10–2 à 10–1 S · m–1. À la fréquence f = 900 MHz, αdB/m atteint les priétés diélectriques de milieux géologiques non saturés. La formule de Hanai-Bruggeman-Sen qui considère deux phases (une phase dispersée noyée dans une matrice ) permet de résoudre partiellement cette problématique : 1 Pour Parmi les modèles empiriques existants, le plus utilisé est le modèle empirique de Topp et al. (1980). Il est adapté essentiellement pour les sols sableux et a été développé dans la bande de fréquences [0,01 GHz, 1 GHz]. Il relie la permittivité effective réelle d’un sol à sa teneur en eau volumique f à l’aide d’un polynôme de degré 3 de la façon suivante : , à la fréquence f = 200 MHz, αdB/m prend les valeurs valeurs de 6,18 et 61,3 dB · m–1. La conductivité est le paramètre le plus influent sur le coefficient d’atténuation. La vitesse de phase de l’onde s’exprime de la façon suivante : (9) (5) Dans le cas d’un milieu à faibles pertes tan δ ≈ 0, la vitesse de phase se réduit à : où A, B, C, et D sont des coefficients dépendants du type de sol. Une variation moyenne de avec la teneur en eau volumique φ a été établie par Topp, ce qui conduit aux coefficients suivants : A = 3,03, B = 9,3, C = 146 et D = – 76,7. (10) 10–2 m–1, S· une fréquence f = 200 MHz, et , Pour σ = les vitesses de phase V sont respectivement de 1,13 × 108 et 8 –1 0,65 × 10 m · s . 1.3 Propagation électromagnétique dans le sol 1.4 Génération des hyperboles La propagation des ondes électromagnétiques (champs électrique et magnétique) dans la matière est régie par les équations de Maxwell qui peuvent être exprimées dans les domaines temporel ou fréquentiel. La spécificité du géoradar, par comparaison au radar aérien, tient à la présence de l’interface air-sol et des cibles à détecter dans le sous-sol dans la zone de champ proche des antennes. Dans ce contexte, la modélisation analytique des phénomènes de propagation s’avère incomplète. Cependant, le formalisme utilisé pour établir les principaux paramètres de prospection géoradar sont basés sur l’hypothèse de la propagation en champ lointain (onde plane). Par la suite, une modélisation électromagnétique numérique beaucoup plus exhaustive pourra être entreprise pour valider et affiner le choix de ces paramètres. Le déplacement du système radar (émetteur/récepteur) à la surface du sol permet de détecter des cibles réfléchissantes qui ne sont pas directement situées à l’aplomb des antennes. Lors de la progression du radar, les cibles vont apparaître sous divers angles d’observation correspondant à des trajets d’ondes et des temps de propagation différents. Ainsi, une forme hyperbolique est associée à chaque cible réfléchissante (figure 2a) et le point le plus haut de l’hyperbole (l’apex) indique la position latérale (en Ox) de la cible comme présenté en figure 2b. Considérant ainsi une onde plane incidente sinusoïdale, dont le champ électrique est polarisé selon la direction Ox et se propage selon l’axe Oz, sa propagation dans le sous-sol en présence de contrastes diélectriques est à l’origine de phénomènes de réflexions, diffractions et transmissions (figure 1). À la réception, dans la direction des trajets réfléchis, l’onde reçue apparaît atténuée et déphasée [8]: (11) Considérant un milieu homogène de permittivité réelle relative e′ indépendante de la fréquence, le temps de parcours aller-retour de l’onde électromagnétique, suite à sa réflexion sur la cible située à la profondeur di est : 1.5 Techniques de modulation (6) De façon générale, deux types de systèmes géoradar peuvent être distingués : – les systèmes temporels ; – les systèmes fréquentiels. où β = ω/V est le facteur de phase, V est la vitesse de phase de l’onde et α, en Np · m–1, le facteur d’atténuation. La vitesse de propagation V et l’atténuation α sont les deux paramètres caractérisant la propagation des ondes électromagnétiques dans un milieu et qui dépendent de ses propriétés diélectriques. Leur connaissance va permettre de décrire les propriétés physiques et la structure du sous-sol. Les radars temporels (radar impulsionnels) reposent sur l’envoi d’un train d’impulsions de durée brève (typiquement entre 200 ps et 50 ns) à une fréquence de répétition longue (1 à 100 µs), et la réception d’échos successifs issus des rétrodiffusions par les éléments constitutifs du sol. Le facteur d’atténuation s’écrit : Les radars fréquentiels sont fondés sur l’envoi d’un signal modulé en fréquence qui peut être effectué au moyen d’un balayage linéaire (FMCW, Frequency Modulated Continuous Wave) ou d’un balayage discret par paliers (SFCW, Step Frequency Continuous Wave). La technologie des radars fréquentiels est plus récente que celle des radars impulsionnels du fait des contraintes plus sévères demandées aux fonctions électroniques, ainsi la plupart des radars commerciaux sont de type impulsionnel. Ils offrent toutefois des performances significatives en termes de rapport signal à bruit (SNR) et de dynamique. Dans le cas du radar impul- (7) et s’exprime en dB/m de la façon suivante : (8) 8 –1 avec c = 3 × 10 m · s vitesse de propagation dans le vide (air), et tangente de pertes diélectriques. TE 5 228v2 – 4 Copyright © – Techniques de l’Ingénieur – Tous droits réservés 52 Référence Internet C224 Géophysique appliquée au génie civil 1 par Richard LAGABRIELLE Ingénieur Civil des Mines Docteur ès Sciences Directeur technique Laboratoire Central des Ponts et chaussées 1. 1.1 1.2 Présentation .............................................................................................. Les méthodes de reconnaissance .............................................................. Place de la géophysique dans les méthodes de reconnaissance............ 2. 2.1 2.2 2.3 2.4 Généralités sur la géophysique............................................................ Définition de la géophysique...................................................................... Paramètres physiques utilisés en géophysique........................................ Méthodes géophysiques............................................................................. Déroulement d’une campagne de géophysique....................................... — — — — — 3 3 3 4 4 3. 3.1 3.2 Gravimétrie ................................................................................................ Principe de base........................................................................................... Microgravimétrie ......................................................................................... — — — 4 4 5 4. 4.1 4.2 4.3 4.4 Sismique ..................................................................................................... Principe de base des méthodes sismiques ............................................... Sismique réfraction ..................................................................................... Sismique réflexion....................................................................................... Sismique en ondes de surface ................................................................... — — — — — 7 7 9 10 11 5. 5.1 5.2 5.3 Méthodes électriques en courant continu ........................................ Principe de base........................................................................................... Sondage électrique...................................................................................... Traîné et carte de résistivité, panneaux électriques ................................. — — — — 13 13 13 15 6. Magnétisme (pour mémoire)................................................................. — 17 7. 7.1 7.2 7.3 7.4 Méthodes électromagnétiques............................................................. Principe de base........................................................................................... Radio-magnétotellurique ............................................................................ Dipôle-dipôle électromagnétique............................................................... Radar géologique ........................................................................................ — — — — — 17 17 19 21 21 8. Radioactivité (pour mémoire) ............................................................... — 22 Références bibliographiques ......................................................................... — 23 C224v2 – 2 — 2 — 2 a géophysique applique les moyens de la physique à l’étude de la structure des terrains. Elle se pratique à partir de la surface du sol (géophysique de surface), dans un forage au moyen d’une sonde portant les instruments de mesure (diagraphies) ou entre forages, forage et surface, forage et galerie (géophysique de forage). C’est l’une des approches utilisées pour la reconnaissance géotechnique du site avant la construction d’un ouvrage (bâtiment, infrastructure urbaine ou infrastructure de transport, barrage...). La reconnaissance géotechnique d’un site consiste à déterminer la nature et la répartition des Parution : mai 2007 L Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. − © Editions T.I. 53 C 224v2 − 1 Référence Internet C224 GÉOPHYSIQUE APPLIQUÉE AU GÉNIE CIVIL __________________________________________________________________________________________________ 1 matériaux dont il est composé et à déterminer leurs propriétés. Ces éléments servent à préciser l’emplacement ou le tracé de l’ouvrage à construire, à concevoir ses fondations et à décider des procédés de construction. Une grande partie des reconnaissances s’applique à l’hydrogéologie et en particulier aux relations de l’ouvrage avec l’eau. La reconnaissance se traduit par l’élaboration d’un modèle géologique. Un modèle géologique est un ensemble de représentations d’un site sous ses différents aspects (nature, répartition, propriétés des matériaux qui le constituent). Ces représentations prennent matériellement la forme de cartes, de coupes, de blocs diagrammes, de coupes de sondages, de textes ou même de maquettes. Au départ, la reconnaissance est toujours fondée sur un premier modèle géologique, qui peut être très sommaire, imprécis ou peu fiable. Le but de la reconnaissance est de l’améliorer, de le rendre fiable, précis, le plus complet possible afin de permettre une conception de l’ouvrage qui repose sur les données dont on a besoin et qui soient les plus sûres possible. 1. Présentation L’interprétation des mesures géophysiques aboutit à un zonage du terrain reconnu, à une première répartition des différents matériaux et à une évaluation de leurs propriétés. Le zonage sert à implanter des sondages mécaniques de manière optimale. Il s’agit de forages, destructifs ou carottés, avec éventuellement enregistrement de paramètres. Dans cette catégorie entrent aussi les tranchées de reconnaissance, les puits ou les galeries. Une qualité indispensable du modèle géologique est sa cohérence. Toutes les méthodes employées pour la reconnaissance consistent à faire des observations et des mesures et à les interpréter. Observations et mesures ne peuvent se faire qu’à partir de la surface du sol ou d’excavations (forages, galeries, tranchées, puits...) : leur interprétation doit conduire à la description du sous-sol partout dans son volume. C’est là que l’exigence de cohérence intervient : les interprétations doivent être compatibles. Plus les méthodes utilisées sont variées, plus les contraintes sur l’interprétation sont fortes et plus la vérification du critère de cohérence rend fiable le modèle géologique élaboré. Les observations réalisées grâce aux sondages mécaniques servent à identifier précisément la nature des matériaux rencontrés et à définir la position des interfaces. Elles sont aussi mises à profit pour affiner les interprétations de la géophysique qui, en retour, permet de juger de la représentativité des informations issues des sondages. Pour les essais de laboratoire, des échantillons (aussi peu remaniés que possible) sont prélevés à partir de sondages mécaniques. Les forages peuvent être valorisés par des diagraphies différées [C 225]. Ils peuvent également servir de base à des dispositifs de géophysique de forage et à pratiquer des essais géotechniques en place. Dans ce dernier cas, le forage est réalisé spécialement pour l’essai ou il peut être constitutif de l’essai (essai pressiométrique, essai pénétrométrique...). 1.1 Les méthodes de reconnaissance Elles peuvent être classées selon un ordre chronologique de leur usage et selon le niveau de détail souhaité. Naturellement, le processus de reconnaissance n’est pas linéaire ; à mesure que celle-ci est réalisée et que de nouvelles observations et de nouvelles mesures apportent des données supplémentaires, les données accumulées depuis le début sont réexaminées afin de s’assurer de la cohérence de l’ensemble. 1.2 Place de la géophysique dans les méthodes de reconnaissance Dans le processus de reconnaissance, la géophysique intervient donc à plusieurs stades. Elle sert à améliorer le premier modèle géologique en donnant une vision d’abord approximative de la structure du sous-sol en volume (en complétant en profondeur les observations de surface), puis elle est utilisée pour optimiser l’implantation des sondages mécaniques qui, à leur tour, permettent de préciser les interprétations géophysiques. L’élaboration du modèle géologique préalable commence par la recherche et l’exploitation des données disponibles, cela grâce à des enquêtes, collectes d’archives orales ou écrites, étude de documents géologiques (cartes géologiques, articles, thèses, rapports, etc.), banques de données publiques et privées, études de photos aériennes et satellitaires. Les résultats précédents sont validés et enrichis par des observations, des relevés et la cartographie détaillée sur le terrain, qui doivent être faits par un spécialiste mais restent d’un coût faible. Des échantillons peuvent être prélevés à la surface du sol dès ce stade de la reconnaissance ; ils servent à identifier précisément les matériaux rencontrés. À un stade plus avancé de la reconnaissance, la géophysique sert à valoriser les forages au moyen des diagraphies et des techniques géophysiques de forage. Avec la géologie, la géophysique permet d’évaluer le caractère représentatif des informations ponctuelles tirées des sondages mécaniques et des essais géotechniques en place et elle contribue à la cohérence du modèle géologique. Elle aide à la résolution de problèmes spécifiques comme les problèmes de terrassement, la détection de cavités souterraines ou d’autres types d’hétérogénéités, la détermination des masses volumiques ou des teneurs en eau, l’identification des argiles, l’évaluation de la fracturation, etc. Le modèle géologique est maintenant de plus en plus élaboré. Les techniques géophysiques de surface sont choisies en fonction du type de terrain rencontré, du type de contraste attendu, des profondeurs d’investigation, du niveau de détail visé ainsi que du type particulier de problème technique à résoudre (par exemple évaluation des difficultés de terrassement, détection d’éventuelles cavités souterraines, etc.). C 224v2 − 2 Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. − © Editions T.I. 54 Référence Internet C224 _________________________________________________________________________________________________ GÉOPHYSIQUE APPLIQUÉE AU GÉNIE CIVIL 2. Généralités sur la géophysique Les valeurs les plus basses (500 m/s) correspondent aux matériaux très altérés de surface, les valeurs les plus fortes (6 000 m/s) à du rocher très sain et non fracturé. Pour mémoire, la vitesse du son dans l’air est d’environ 340 m/s, dans l’eau elle vaut 1 425 m/s. 2.1 Définition de la géophysique Les principales méthodes sismiques sont la sismique réfraction et la sismique réflexion, la sismique par ondes de surface, la tomographie sismique, le cross-hole ainsi que les diagraphies sonique et microsismique. La géophysique appliquée est la discipline qui consiste à étudier (observer, mesurer) un champ physique à la surface du sol ou dans des cavités creusées dans le sol. Ce champ physique, dont l’origine peut être naturelle ou provoquée, dépend d’un ou plusieurs paramètres caractéristiques des matériaux dont on cherche à déterminer la répartition dans le terrain. ■ Caractéristiques électriques Les matériaux du sous-sol sont conducteurs de l’électricité. La conductivité, notée σ, est la grandeur qui caractérise cette propriété. Elle se mesure en siemens par mètre (S/m). Cette définition ne se comprend pas immédiatement si l’on n’a pas d’exemple de méthode en tête. Elle deviendra plus claire quand on aura lu les paragraphes suivants et, en particulier, le tableau synoptique 1. La résistivité, notée ρ, est l’inverse de la conductivité, elle se mesure en ohms-mètres (Ω · m). Plus ρ est faible, plus le matériau est conducteur. La résistivité peut prendre des valeurs qui couvrent plusieurs ordres de grandeur, de quelques ohms-mètres pour des terrains très argileux et très humides à plusieurs dizaines de milliers d’ohms-mètres pour des matériaux rocheux très sains, en passant par toutes les valeurs intermédiaires. 2.2 Paramètres physiques utilisés en géophysique ■ Masse volumique Il y a donc entre les matériaux des contrastes de résistivité très forts. Cela confère aux méthodes fondées sur la recherche de la répartition de la résistivité un grand pouvoir de discrimination entre les matériaux. Ces méthodes sont la prospection électrique par courant injecté (dont les diagraphies de résistivité, cf. [C 225]) et les méthodes électromagnétiques en basses fréquences. L’ordre de grandeur courant de la masse volumique des sols en place est de 2 000 kg/m3. Le champ de pesanteur dépend de la répartition des masses donc de la répartition de la masse volumique des matériaux du terrain. Par exemple, l’existence d’une cavité souterraine correspond à un déficit de masse et provoque une anomalie négative de la pesanteur mesurée en surface. La gravimétrie est la méthode qui exploite ces phénomènes. Une autre méthode géophysique est utilisée pour déterminer précisément la valeur de la masse volumique et sa répartition ; il s’agit de la méthode de diagraphie différée appelée gamma-gamma. ■ Caractéristiques magnétiques et électromagnétiques Les propriétés magnétiques des matériaux sont quantifiées par la perméabilité magnétique relative µr et la susceptibilité magnétique χ: µr = 1 + χ ■ Caractéristiques élastiques (modules d’élasticité, vitesses des ondes mécaniques) La vitesse de propagation des ondes mécaniques dans les matériaux dépend de leurs modules d’élasticité (modules d’Young et de Poisson, coefficients de Lamé) et de leur masse volumique. Les méthodes sismiques ont pour but de découvrir la répartition des vitesses des ondes mécaniques. Elles sont peu utilisées en génie civil. Une méthode magnétique est parfois utilisée pour rechercher des objets contenant du fer sur un site qui peut avoir servi de décharge (en revanche, le magnétisme est très utilisé en archéologie pour découvrir des restes de poteries ou d’autres hétérogénéités comme les vestiges du phare de Pharos). Nous ne parlerons pas dans cet article des méthodes magnétiques. (0) Tableau 1 – Méthodes utilisées en géophysique Méthode Grandeur mesurée Paramètre Origine du champ physique Gravimétrie Champ de pesanteur Masse volumique Naturelle Sismique Temps de trajet Vitesse d’ondes mécaniques Provoquée Électrique par courant injecté Potentiel électrique Résistivité Provoquée Magnétique Champ magnétique Susceptibilité magnétique Naturelle Électromagnétique Champ électromagnétique Résistivité et permittivité Provoquée Radioactivité Nombre d’événements Radioactivité des roches Naturelle ou provoquée Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. − © Editions T.I. 55 C 224v2 − 3 1 Référence Internet C224 GÉOPHYSIQUE APPLIQUÉE AU GÉNIE CIVIL __________________________________________________________________________________________________ Le tableau 1 indique les six grandes méthodes utilisées en géophysique. Sur chaque ligne, on reconnaît les éléments de la définition 2.1. En particulier, on a indiqué dans la dernière colonne quelle était l’origine du champ physique observé, naturelle ou provoquée. Certaines méthodes font en effet appel à un phénomène physique dont la source est parfaitement naturelle (gravimétrie, magnétisme, radioactivité naturelle), d’autres au contraire nécessitent l’emploi de sources artificielles (sismique, électrique, électromagnétisme, radioactivité provoquée). Les caractéristiques électromagnétiques autres que µr et χ sont encore la conductivité σ, déjà citée, et la permittivité relative εr. Celle-ci a une influence sur la vitesse de propagation des ondes électromagnétiques qui vaut : v = c ⁄ εr 1 avec c vitesse de la lumière dans le vide (3 · 108 m/s). Chacune des méthodes, définies par le domaine de la physique auquel elles se rattachent, est divisée en techniques géophysiques suivant le type de mise en œuvre et les objectifs visés. On distingue les techniques géophysiques de surface, les techniques de forage et les diagraphies. εr vaut 1 pour l’air, environ 4 pour un matériau sec, jusqu’à environ 20 pour un matériau très humide et 80 pour l’eau. La vitesse de l’onde électromagnétique varie donc dans un rapport de 1 à 9 et peut être utilisée pour distinguer les matériaux du sous-sol. Les techniques géophysiques de surface sont mises en œuvre uniquement à partir de la surface du sol. Les diagraphies sont des techniques géophysiques mises en œuvre à l’intérieur d’un forage et dont le rayon d’investigation n’est jamais beaucoup plus grand que le rayon du forage. Elles servent à mesurer en place un paramètre physique avec la meilleure définition verticale possible, mais elles ne permettent pas d’augmenter le rayon d’investigation du forage ni de porter un jugement sur le caractère représentatif des informations obtenues à partir du forage. Les méthodes géophysiques fondées sur la détermination de la répartition des caractéristiques électromagnétiques (σ et εr) sont le radar géologique et la tomographie électromagnétique en ondes monochromatiques. ■ Radioactivité des roches Les roches contiennent en quantités variables des éléments naturels radioactifs, le potassium 40, le radium et l’uranium. Les techniques géophysiques de forage tirent parti de l’existence d’un ou plusieurs forages pour se rapprocher de leur cible ; elles servent à augmenter le rayon d’investigation des forages, à obtenir des informations sur le sous-sol à des profondeurs plus grandes qu’avec les méthodes de surface et avec une meilleure résolution. Elles sont donc naturellement plus ou moins radioactives. Cette propriété est mise à profit en géophysique pour les distinguer. Ainsi, parmi les matériaux sédimentaires, les argiles sont les matériaux les plus radioactifs, les calcaires purs ne le sont pas et les marnes et marnocalcaires le sont plus ou moins suivant leurs teneurs en minéraux argileux. Parmi les matériaux cristallins, les granites sont les plus radioactifs. Les trois types de techniques sont naturellement complémentaires. Les diagraphies de radioactivité naturelle (RAN ou γ -ray) utilisent ces propriétés pour déterminer les matériaux traversés par un forage. 2.4 Déroulement d’une campagne de géophysique La radioactivité peut aussi être provoquée par un bombardement neutronique des matériaux. L’étude de ces phénomènes (de durée de vie de quelques dizaines de minutes au maximum) a conduit à la mise au point de méthodes d’analyse chimique élémentaire en forage (diagraphie neutron -γ). Une campagne de géophysique comporte toujours cinq phases : — la conception ; — la mesure sur le terrain ; — le traitement des mesures ; — l’interprétation géophysique des mesures ; — l’interprétation en termes du problème de reconnaissance à résoudre. Enfin, les propriétés d’absorption des rayonnements par les matériaux sont exploitées. L’absorption des rayons γ permet la mesure en place, très précise, de leur masse volumique (diagraphie γ – γ). L’absorption des neutrons permet la mesure de leur teneur en eau (diagraphie neutron - neutron). Dans la suite de cet article, les travaux à réaliser au cours de chaque phase seront décrits pour chaque technique géophysique. Cette description est fortement inspirée par le document intitulé « Géophysique appliquée. Code de bonne pratique » [1]. Ce document, élaboré et édité par des professionnels français de la géophysique appliquée, décrit pour chaque technique géophysique en quoi doit consister une prestation minimale pour que l’on puisse la considérer comme une prestation de qualité. Le document est régulièrement révisé par l’Association professionnelle AGAP-QUALITÉ. Dans cet article, nous développons et justifions ces recommandations. 2.3 Méthodes géophysiques Le fondement d’une méthode géophysique est l’influence de la valeur et de la répartition dans le sol d’une caractéristique physique particulière sur un champ physique. Ainsi chaque type de caractéristique cité paragraphe 2.2 est associé à une méthode géophysique. Il faut souligner au passage que les caractéristiques qui viennent d’être évoquées ne sont pas toutes directement utiles à la conception des ouvrages. Elles servent simplement d’intermédiaires pour reconnaître la structure du sous-sol. C’est pour cela que la géophysique est souvent qualifiée de méthode indirecte de reconnaissance. Lorsque, par exemple, l’extension d’une couche géologique est déterminée grâce à la résistivité du matériau qui la constitue, l’hypothèse qui justifie ce type de méthode est que, si la résistivité est constante, les propriétés géotechniques du matériau sont aussi constantes puisqu’il s’agit partout du même matériau. Il suffit donc d’évaluer les propriétés géotechniques en un point pour les connaître partout dans le matériau. Ces méthodes seront décrites dans les paragraphes 3 à 8. C 224v2 − 4 3. Gravimétrie 3.1 Principe de base La gravimétrie est l’étude des variations du champ de pesanteur à la surface du sol. La figure 1 montre la variation de la composante Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. − © Editions T.I. 56 Référence Internet C224 _________________________________________________________________________________________________ GÉOPHYSIQUE APPLIQUÉE AU GÉNIE CIVIL La constante C vaut : Anomalie (gal) C = 3 · 10−6 − 2π Gd (en unités SI) 160 où d est la masse volumique des terrains de surface qu’il convient d’estimer au mieux, G étant la constante universelle de gravitation (G = 6,67 × 10−11 N · m2/kg2). Le terme indépendant de la densité correspond à la correction dite « à l’air libre » (la gravité diminue lorsque l’altitude augmente, parce que l’on s’éloigne des masses qui en sont la source), le terme dépendant de la densité compense partiellement ce phénomène, il s’agit de la correction dite de « plateau », qui tient compte de la présence d’une lame de matière entre l’altitude de référence et celle du point courant. 140 120 100 Cylindre 80 60 Sphère 40 20 --15 --10 --5 0 5 La correction T de relief corrige le fait que cette dernière lame de matière présente en réalité une épaisseur variable, un relief. Son calcul est analytique et il existe des logiciels permettant de l’effectuer à partir d’un modèle numérique de terrain. 10 15 Distance (m) Dans la formule (1), les variations temporelles de g dues à la marée ou à la dérive de l’appareil sont déjà prises en compte et évaluées expérimentalement grâce à des mesures périodiques à la base avec une période inférieure à 1 h. Masse volumique du sol : 2 000 kg/m3 Figure 1 – Anomalie gravimétrique due à une cavité de 6 m de diamètre, centrée à 5 m de profondeur La formule (1) de l’anomalie de Bouguer, avec la signification des termes que l’on vient de donner, n’est pas la formule rigoureuse de la gravimétrie en général mais celle qui est utilisée pour la reconnaissance en génie civil. Dans sa définition rigoureuse, g0 est une valeur théorique sur un ellipsoïde de référence dont l’altitude est zéro par définition. z est alors l’altitude du point de mesure par rapport à l’ellipsoïde de référence. En génie civil, il vaut mieux prendre l’altitude de référence à la base pour que les corrections soient faibles. verticale de l’anomalie du champ de pesanteur due à la présence dans le sous-sol d’une cavité de 6 m de diamètre dont le toit est à 2 m de profondeur dans un terrain homogène de masse volumique 2 000 kg/m3. Deux courbes sont représentées l’une pour une cavité de forme sphérique (en trait plein), l’autre pour une cavité cylindrique d’axe perpendiculaire au plan de la figure (en tireté). L’anomalie est naturellement négative ; en valeur absolue, elle vaut au maximum 1,5 · 10−6 m · s−2, soit un peu plus d’un dix millionième de la valeur du champ de pesanteur total (10 m · s−2). La carte de l’anomalie de Bouguer est le document qui résulte d’une campagne de mesures (figure 2). Remarquons au passage que les mesures ne se résument pas à celle de la gravité mais qu’il faut aussi connaître l’heure de passage aux différentes stations (avec une précision de l’ordre de la minute) et les altitudes relatives (avec une précision de l’ordre du centimètre). En pratique, on n’utilise pas comme unité de mesure le m · s−2 mais un sous-multiple de l’ancienne unité du système CGS, le gal ou cm · s−2. En gravimétrie appliquée à la reconnaissance en génie civil, l’unité est le microgal (1 µgal = 10−8 m · s−2). L’anomalie de Bouguer (figure 2 a) présente des variations de grandes longueurs d’onde dues à des phénomènes géologiques régionaux et profonds et des variations à petites longueurs d’ondes dues à des phénomènes locaux et peu profonds. Le premier type de variation est l’anomalie régionale (figure 2 b) et n’intéresse pas en principe la reconnaissance en génie civil. L’anomalie résiduelle (figure 2 c) est la différence entre l’anomalie de Bouguer et l’anomalie régionale. C’est elle qu’il faut interpréter. Le champ de pesanteur se mesure au moyen d’un gravimètre. Le principe est de mesurer la force qui s’exerce sur une masse unitaire suspendue à un ressort (peson à ressort). Naturellement, un gravimètre comporte des raffinements qui lui confèrent une très grande sensibilité et qui rendent la mesure aussi peu dépendante que possible de la pression atmosphérique ou de la température. Les gravimètres utilisés pour la reconnaissance ne servent pas à mesurer la gravité absolue mais ses variations dans l’espace et dans le temps, leur précision est de quelques microgals. La force qui s’exerce sur la masse du gravimètre dépend du temps (phénomène de la marée terrestre due à l’influence sur la valeur de la gravité de la position de la lune et du soleil). Elle dépend aussi de la latitude et de l’altitude du point de mesure ainsi que du relief. 3.2 Microgravimétrie C’est la seule technique de gravimétrie utilisée en génie civil. D’autres techniques existent pour d’autres domaines d’application de la géophysique. On compare la valeur de la gravité en différents points d’un réseau maillé à celle d’un point de référence appelé base. Les mesures sont toutes ramenées à la même altitude, corrigées des variations temporelles, de l’effet de la latitude et du relief. On calcule ainsi « l’anomalie de Bouguer » : A = g − (g0 − Cz − T ) avec g 3.2.1 Domaine d’application (1) En génie civil, la microgravimétrie sert à rechercher des cavités souterraines qu’elles soient d’origine naturelle (cavités karstiques principalement) ou artificielles (anciennes carrières souterraines, anciennes exploitations minières, caves, citernes, galeries de drainage ou d’alimentation en eau...). Les cavités sont soit remplies d’air, soit plus ou moins remblayées ou noyées. Dans ces deux derniers cas, elles sont plus difficiles à détecter que s’il s’agit de vides francs. la gravité au point courant, g0 gravité à la base, C constante, z différence d’altitude entre le point courant et la base, T la correction due au relief. Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. − © Editions T.I. 57 C 224v2 − 5 1 1 58 Référence Internet E4312 Géolidar pour l’étude des surfaces, de la biosphère et de l’hydrosphère par 1 Pierre H. FLAMANT Doctorat d’État en Physique, Université Pierre & Marie Curie Directeur de Recherche au CNRS 1. 1.1 1.2 Mesures lidar sur les surfaces ............................................................. Domaines d’applications ............................................................................ Méthodes et instruments ........................................................................... 2. 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 Lidar topographique ............................................................................... Cibles............................................................................................................ Bilan de liaison ............................................................................................ Albédo des cibles ........................................................................................ Dépolarisation ............................................................................................. Rapport signal sur bruit.............................................................................. Applications................................................................................................. Échantillonnage des surfaces .................................................................... Erreurs sur les mesures.............................................................................. — — — — — — — — — 4 4 4 7 7 7 8 9 10 3. 3.1 3.2 3.3 3.4 3.5 3.6 Lidar canopée ........................................................................................... Cibles............................................................................................................ Bilan de liaison ............................................................................................ Albédo de cibles.......................................................................................... Dépolarisation ............................................................................................. Fluorescence................................................................................................ Applications................................................................................................. — — — — — — — 11 11 12 13 13 13 13 4. 4.1 4.2 4.3 4.4 4.5 4.6 Lidar bathymétrique ............................................................................... Cibles............................................................................................................ Bilan de liaison ............................................................................................ Dépolarisation ............................................................................................. Raman vibrationnel et Brillouin ................................................................. Fluorescence................................................................................................ Applications................................................................................................. — — — — — — — 14 14 15 15 15 17 17 5. Conclusion................................................................................................. — 18 Pour en savoir plus .......................................................................................... E 4 312 - 2 — 2 — 2 Doc. E 4 312 e lidar est une méthode de télédétection laser qui est utilisée en recherche et dans l’industrie pour caractériser les surfaces et l’atmosphère. L’abréviation « lidar » signifie : « LIght Detection And Ranging » sur le modèle de : radar, sodar ou sonar. Ce terme peut s‘appliquer indifféremment à un grand nombre d’instruments, de techniques et d’applications. Dans les faits, le lidar recouvre deux grands domaines d’activités et des communautés distinctes quant à leurs manières de traiter les problèmes. La communauté « atmosphère » est plutôt formée de groupes de recherche, chacun développant ses instruments et ses algorithmes de traitement du signal et d’analyse des données [E4310, E4311], tandis que la communauté « surface » se structure en utilisateurs institutionnels ou privés qui font appel à des sociétés de service équipées de lidars industriels et de logiciels standardisés. Parution : mai 2011 L Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. – © Editions T.I. 59 E 4 312 – 1 Référence Internet E4312 GÉOLIDAR POUR L’ÉTUDE DES SURFACES, DE LA BIOSPHÈRE ET DE L’HYDROSPHÈRE ____________________________________________________________ 1 Le présent article traite des lidars géophysiques, ou géolidars, pour les surfaces terrestres et l’exploration planétaire. Il présente la physique de la mesure, les méthodes, l’instrumentation et les applications. En tout premier lieu, le lidar utilise le temps de vol de la lumière pour connaître la distance aux cibles diffusantes. La mesure de distance à elle seule est d’une très grande importance pour les levées topographiques, la bathymétrie des milieux aquatiques et la géodésie. De plus, la mesure de l’intensité diffusée, de la dépolarisation de la lumière reçue et du spectre diffusé sert à caractériser les cibles. cageuses), ou de manières épisodiques ou accidentelles lors de crues. Les lidars bathymétriques sont aéroportés pour la plupart ou embarqués sur bateaux. Certains de ces lidars sont utilisés pour le suivi de pollutions marines accidentelles (nappes de pétrole) et pour la caractérisation de la faune et de la flore aquatique. 1. Mesures lidar sur les surfaces 1.1 Domaines d’applications Comme la réflectivité de la lame d’eau varie avec la force du vent de surface, on mesure celui-ci de manière indirecte par réflectivité lidar. On peut aussi mesurer le débit des cours d’eau par effet Doppler en utilisant la réflexion diffuse à l’interface aireau. Les grands domaines d’applications sont présentés sur la figure 1 : lithosphère (terre solide, sols), anthroposphère (zones construites et urbanisées), biosphère (végétation, forêts, agriculture) et hydrosphère (milieux aquatiques). L’avion qui emporte le lidar est équipé d’un système de positionnement au sol (GPS) précis et d’un système de navigation inertielle (INS) pour connaître l’attitude de l’avion. L’avion est en relation avec la station GPS de référence au sol et la constellation satellite GPS. La direction de visée du lidar est variable. La topographie utilise des lasers émettant plutôt à 1064 nm, alors que la bathymétrie utilise des lasers émettant à 532 nm pour sonder les masses d’eau dans la profondeur. En bathymétrie, il faut prendre en compte la réfraction à l’interface air-eau (non représentée à l’échelle utilisée sur la figure 1). Dans le passé, des prototypes de lidars topographiques ont été testés avec succès par la NASA durant les missions d’exploration lunaire Apollo 15, 16 et 17. Par la suite, des missions altimétriques lidar ont été conduites avec succès à partir de la navette spatiale pour établir des modèles numériques de terrain à l’échelle de la Terre. Plus récemment, le satellite ICESat de la NASA lancé en 2003 a montré tout le potentiel des mesures lidar à partir de l’espace pour la topographie des surfaces et de la canopée. On doit aussi mentionner les applications géodésiques pour la mesure précise de la distance Terre-Lune ou le suivi de satellites en orbite autour de la Terre par des stations au sol. L’altimétrie laser est utilisée pour les levées topographiques en trois dimensions des surfaces naturelles ou construites. C’est le principal domaine d’application en termes d’activité et de marché économique. 1.2 Méthodes et instruments Les applications topographiques reposent sur une altimétrie laser précise et une connaissance tout aussi précise de la position du lidar et de sa direction de visée. Dans la grande majorité des cas, les lidars topographiques sont aéroportés et ils peuvent couvrir en peu de temps des zones géographiques étendues. Des lidars au sol ou à bord de camionnettes sont aussi utilisés pour la cartographie de bâtiments. Les lidars topographiques aéroportés servent à établir des modèles numériques de surface (MNS) qui s’appliquent aux sols nus, et des modèles numériques de terrain, avec : bâtiments, rues, routes, digues, couloirs pour lignes électriques à haute tension, etc. Certains de ces lidars sont aussi utilisés pour les prospections géologiques, sismiques et archéologiques. Un historique [1] montre qu’en 1996 il n’existait qu’un seul fabricant de lidar altimétrique et quelques sociétés de services pour les applications topographiques, alors qu’en 1999 il existait déjà plusieurs fabricants et plus de 40 sociétés de services. Aujourd’hui, en 2010, toutes ces applications sont présentées et discutées dans un forum bisannuel (www.lidarmap.org). La figure 2 établit le lien entre : 1) les cibles diffusantes, macroscopiques ou microscopiques, 2) les processus d’interaction lumière-matière et 3) les applications (voir figure 1). Comme pour tous les lidars, les processus d’interaction lumière-matière sont à la fois le support de la mesure (signal lidar) et la signature de la variable géophysique que l’on cherche à mesurer. Les instruments lidar ont une architecture monostatique (figure 3) dans laquelle le laser de sondage et le télescope qui reçoit le signal diffusé sont solidaires. L’axe d’émission du laser et l’axe du télescope sont confondus ou parallèles. Le signal lidar utile est fourni par la réflexion diffuse de cible (voir l’indicatrice de diffusion sphérique pour une cible dite lambertienne). Pour les applications altimétriques à la topographie, les lasers émettent des impulsions courtes (quelques nanosecondes) à haute cadence (de 1 kHz à plusieurs centaines de kilohertz). La diffusion élastique sans changement de longueur d’onde par les cibles naturelles ou bâties est le support de la mesure de distance. L’incertitude sur la mesure est liée au seuil choisi pour détecter le temps de montée du signal renvoyé par la cible. La topographie utilise de préférence des lasers Nd-YAG émettant de faibles énergies par impulsion (10 µJ à 1 mJ) dans le proche IR (1 064 nm), alors que la bathymétrie utilise des lasers Nd-YAG émettant des énergies de plusieurs dizaines de millijoules dans le visible (532 nm) avec des cadences de tirs de plusieurs dizaines à quelques centaines de hertz. La longueur d’onde 532 nm est bien adaptée aux mesures bathymétriques car elle peut pénétrer les milieux aquatiques jusqu’à des profondeurs de plusieurs dizaines de mètres. Dans le domaine de la biosphère, l’altimétrie laser aéroportée est utilisée pour des inventaires forestiers à grande échelle et pour l’agriculture. Certains lidars sont aussi mis en œuvre pour des études d’impact écologique sur la faune et la flore. À côté des applications altimétriques, l’émission de fluorescence de la chlorophylle excitée par laser est utilisée pour caractériser la végétation terrestre et aquatique, ainsi que les microorganismes en milieux aquatiques. Dans le domaine de l’hydrosphère, les lidars sont utilisés en bathymétrie pour des relevés topographiques de surfaces immergées en permanence (littoraux, lacs, rivières, zones maré- E 4 312 – 2 Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. – © Editions T.I. 60 Référence Internet E4312 _____________________________________________________________ GÉOLIDAR POUR L’ÉTUDE DES SURFACES, DE LA BIOSPHÈRE ET DE L’HYDROSPHÈRE Constellation GPS 1 Les porteurs sont généralement des petits avions à moteur pour un meilleur échantillonnage des surfaces Lidar aéroporté avec INS et GPS Constellation GPS Propagation dans l’atmosphère R = ct /2n Balayage de la ligne de visée lidar Relief Sol Station GPS sol de référence Lithosphère : sols, aménagement du territoire Réflexions surfaciques diffuses Hydrosphère : plateaux continentaux, littoraux, rivières, lacs, zones inondées Propagation en milieux aquatiques Biosphère : forêts, agriculture Anthroposphère : environnement urbain et industriel Propagation dans la végétation Réflexions surfaciques diffuses Figure 1 – Applications des lidars aéroportés à l’étude des surfaces : lithosphère et anthroposphère, biosphère, hydrosphère avec Le rayonnement laser renvoyé par les cibles est reçu par le télescope, puis détecté et converti en signal numérique. L’enregistrement du signal lidar est déclenché sur l’émission laser (à t = 0). La mesure de distance (R) repose sur la mesure précise du temps de vol aller-retour des photons : n indice de réfraction du milieu, c vitesse de la lumière. On néglige l’indice de l’air (nair = 1,000293) pour les applications aéroportées et des distances d’une dizaine de kilomètres. Au contraire, il est pris compte en bathymétrie même à courte portée : neau = 1,33, et pour la réfraction à l’interface air-eau (loi de SnellDescartes). Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. – © Editions T.I. 61 E 4 312 – 3 Référence Internet E4312 GÉOLIDAR POUR L’ÉTUDE DES SURFACES, DE LA BIOSPHÈRE ET DE L’HYDROSPHÈRE ____________________________________________________________ Biosphère Cibles 1 Processus d’interaction lumière matière Applications Diffusion élastique, réflexions diffuses multiples Architecture végétale Forêts, agriculture Fluorescence chlorophylle induite par laser Biomasse, gestion forestière, écologie Végétation Canopée Lithosphère Topographie Surfaces naturelles : sols, roches, … Anthroposphère Environnement construit et habité Hydrosphère Surfaces immergées Particules, bulles, plantes, plancton Diffusion élastique Réflexion diffuse unique Géologie, sismologie, archéologie Zones urbaines Aménagement du territoire Réflexions élastiques diffuses Dépolarisation Bathymétrie, topographie des surfaces immergées Sédiments, végétation Diffusion inélastique Raman vibrationnel Bathymétrie, topographie des surfaces immergées Diffusion inélastique Brillouin Température (eau) Plancton, matière organique dissoute Fluorescence chlorophylle induite par laser Végétation aquatique, pollutions Interface air-eau Diffusion élastique Réflexion diffuse Bathymétrie Vent de surface Étendue d’eau Figure 2 – Mise en correspondance des cibles diffusantes, des processus d’interaction lumière-matière et des applications à la biosphère, lithosphère et hydrosphère 2. Lidar topographique d) réflexion majoritairement diffuse avec composante dans la direction spéculaire ; 2.1 Cibles e) réflexion diffuse avec composante rétro-réfléchie forte dans le sens opposé au faisceau laser incident (point chaud ou « hot spot »). Les sols et les surfaces bâties (béton, briques, asphalte, etc.) sont des cibles surfaciques dures diffuses et/ou spéculaires impénétrables aux rayonnements laser, qui absorbent pour partie le rayonnement incident et qui renvoient le reste dans le demi-plan (figure 4). La fraction diffusée détermine l’albédo (ou réflectance) : 0 ≤ρ c ≤1. La figure 4 illustre les différents types de réflexion : 2.2 Bilan de liaison Le bilan de liaison de la mesure lidar sur cible surfacique dure diffuse peut être suivi étape par étape : 1) émission au temps t = 0, d’une impulsion laser de courte durée tK ; a) réflexion spéculaire (comme par un miroir), aucune lumière laser n’est renvoyée vers le lidar, le récepteur du lidar ne voit pas la cible ! 2) propagation aller du rayonnement laser dans l’air ; 3) réflexion diffuse par la cible ; b) réflexion complètement diffuse ou lambertienne : le rayonnement laser est diffusé dans le demi-plan supérieur (2π sr). L’indicatrice de diffusion en cos ζ pour l’intensité diffusée Iζ (en W. sr1) est sphérique, et le récepteur voit la cible ; 4) réception par le télescope d’une petite partie de la lumière diffusée après propagation retour dans l’air ; le signal optique lidar est la somme des ondelettes renvoyées par chacun des points de la cible (figure 3) ; c) réflexion plutôt spéculaire : très peu de lumière est renvoyée vers le lidar ; E 4 312 – 4 5) détection au temps t de la lumière reçue par le télescope ; Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. – © Editions T.I. 62 Référence Internet RAD7420 Scanners lasers terrestres Des nuages pour la géomatique par 1 Vincent BARRAS Ingénieur HES en géomatique Professeur de topométrie, lasergrammétrie Institut de l’ingénierie du territoire (Insit), Haute École d’Ingénierie et de Gestion du canton de Vaud (HEIG-VD), Yverdon-les-Bains, Suisse 1. 1.1 1.2 1.3 Types de mesures.................................................................................... Référence interne ........................................................................................ Référence à la verticale............................................................................... Prise de photos............................................................................................ 2. 2.1 2.2 2.3 2.4 Quelques considérations sur les lasers............................................. Classification des scanners lasers ............................................................. Les longueurs d’onde ................................................................................. Des fantômes dans les nuages .................................................................. Précision ...................................................................................................... — — — — — 4 4 5 6 7 3. 3.1 3.2 3.3 3.4 3.5 Étapes de travail ...................................................................................... Le champ de vision et la résolution........................................................... Le traitement du signal retour ................................................................... La répartition des stations.......................................................................... L’assemblage............................................................................................... Le géoréférencement.................................................................................. — — — — — — 8 8 9 9 9 11 4. 4.1 4.2 4.3 4.4 4.5 4.6 Traitements et utilisation du nuage de points................................ Nettoyage .................................................................................................... Utilisation du nuage de points bruts ......................................................... Digitalisation dans les nuages de points .................................................. Modélisation via des formes géométriques ............................................. Placement d’objets...................................................................................... Autres utilisations des nuages de points .................................................. — — — — — — — 12 12 12 12 14 14 15 5. 5.1 5.2 5.3 Évolutions et conclusions..................................................................... Les stations totales avec fonction de scannage ....................................... Les systèmes mobiles................................................................................. Conclusions ................................................................................................. — — — — 16 16 16 17 6. Glossaire .................................................................................................... — 17 Pour en savoir plus ................................................................................. RAD 7 420 - 2 — 3 — 3 — 3 Doc. RAD 7 420 urant la seconde moitié des années 1990, quelques firmes ou laboratoires spécialisés présentent de drôles d’instruments qui mélangent le principe du tachéomètre des géomètres et le principe du scannage d’une feuille de papier, un laser balaye, de manière sphérique, l’environnement pour fournir un nuage de points tridimensionnels, soit un « raster » 3D ou « nuage » 3D. Les premiers résultats présentés au public sont des relevés de raffineries souvent compliqués à cartographier en raison de la complexité des tuyauteries. À ses débuts, la lasergrammétrie (technique traitant des mesures dans les résultats des scanners lasers) propose régulièrement ses atouts pour l’architecture d’extérieur. Parution : septembre 2018 D Copyright © – Techniques de l’Ingénieur – Tous droits réservés 63 RAD 7 420 – 1 Référence Internet RAD7420 SCANNERS LASERS TERRESTRES ______________________________________________________________________________________________________ 1 Très vite, les firmes actives dans le domaine de la topométrie envisagent son potentiel pour des activités nouvelles (relevés d’ouvrages complexes, « tels que construits », etc.) et surtout une concurrence pour les stations totales (tachéomètres motorisés avec des fonctionnalités de stockage et de calcul, l’outil principal des géomaticiens à cette époque). Elles rachètent quelques développements ou créent des collaborations, par exemple : – Leica Geosystems rachète Cyrax ; – Trimble reprend Mensi ; – Faro reste indépendant dans ses développements, au départ, plus orientés industriels. Aujourd’hui, Trimble revend certains modèles sous son nom ; – Zoller+Frölich a longtemps eu une forte collaboration avec Leica Geosystems. Aujourd’hui, les développements matériels ont atteint une certaine maturité en termes de vitesse et de précision. Les évolutions actuelles se concentrent sur les algorithmes de filtrage et les possibilités d’assemblages automatisés des nuages de points. Il ne faut pas s’y tromper, obtenir un nuage 3D d’un environnement n’est que le début du travail. Avec ce raster, plusieurs traitements sont envisageables : – une utilisation directe du nuage de points 3D pour visualiser un environnement, faire des mesures ou y intégrer un projet. Ce nuage de points peut être coloré selon différentes informations (la réflectance du laser, la couleur d’une photo prise en parallèle du nuage de points…). Ce nuage permet également de conserver un état des lieux à un instant précis ; – après digitalisation des points caractéristiques du nuage, on obtient des vecteurs 3D, voire des formes en 3D. Ce processus, encore très manuel, permet d’alléger grandement le volume des données et de mettre en évidence les éléments essentiels qui étaient l’objectif de l’acquisition ; – la modélisation est la recherche de formes géométriques (meilleurs plans, cylindres, sphères…) ou de surfaces composites (maillage ou « mesh ») dans ce nuage. Cette transformation en éléments vectoriels « moyens » permet de limiter l’impact du bruit des mesures pour obtenir des maquettes virtuelles, base de très nombreux produits (modèle numérique de terrain, BIM…) ; – l’évolution actuelle s’oriente régulièrement vers la détection et la recherche dans le nuage d’objets définis dans une base de données. On peut donner comme exemple la détection de tuyaux avec des diamètres définis et des éléments (coudes, T) possédant des dimensions fixes. De très nombreux développements vont actuellement dans ce sens. 1. Types de mesures Laser Même s’il existe de très nombreux modèles de scanners lasers terrestres, la base du fonctionnement reste le même pour tous : Angle principal – un moteur permet une rotation maîtrisée autour de l’axe principal (généralement presque vertical) de l’instrument ; – en parallèle, un système de miroirs ou de prismes réalise une rotation autour d’un axe perpendiculaire au premier ; – une pompe à laser émet un rayon qui va, suivant différentes techniques fournir une information de distance ; – on stockera également l’intensité du signal retour. Angle secondaire Axe secondaire Cercle principal Il est possible de déterminer la position tridimensionnelle de l’impact du rayon émis dans un référentiel local à la position du scanner avec les informations polaires présentées à la figure 1 : Cercle secondaire Axe principal – un angle dans un plan perpendiculaire à l’axe principal, soit dans le plan xy local (appelé par la suite angle principal) ; – un angle normal au 1er (plan z) (appelé par la suite angle secondaire) ; – une distance dans l’espace ; – une information sur l’intensité du signal retour. RAD 7 420 – 2 Projection de l’axe principal sur le cercle Figure 1 – Définition géométrique d’un scanner laser terrestre La cadence de mesures oscille entre 50 000 et 1 million de points par secondes. Ces valeurs impressionnantes ont longtemps été un Copyright © – Techniques de l’Ingénieur – Tous droits réservés 64 Référence Internet RAD7420 ______________________________________________________________________________________________________ SCANNERS LASERS TERRESTRES argument marketing. Aujourd’hui, le développement ne se concentre plus sur la vitesse, mais sur le traitement des signaux retours pour minimiser le bruit et filtrer les points de mauvaise qualité. position dans l’espace et dont l’origine se trouve à l’intersection des axes principal et secondaire. C’est à partir de ce point qu’est déterminée la distance spatiale. Même si les observations sont des valeurs polaires, la transformation, pour chaque pixel, en coordonnées tridimensionnelles est généralement réalisée à la volée, directement au sein du capteur. Le résultat minimal visible par l’opérateur est un nuage de points avec pour chaque impact, des coordonnées locales xyz et une valeur d’intensité du signal retour selon le calcul de la figure 2. Cependant, l’utilisateur reçoit souvent des valeurs transformées. Les mesures brutes sont corrigées : Cette dernière valeur d’intensité du signal retour peut prendre différentes formes (pourcentage, valeurs entre des bornes variables…). Elle permet généralement de fournir la première vue colorée du résultat soit en variations RVB (rouge vert bleu), soit en niveaux de gris, comme présentée à la figure 3. – des éventuelles imperfections de constructions (axes pas exactement orthogonaux, le système de mesure de distance est décalé, d’où l’ajout d’une constante, voire d’autres corrections géométriques) ; – de la prise en compte de l’environnement (température interne de l’instrument, conditions atmosphériques pour la détermination de l’indice de réfraction de l’air) afin de déterminer correctement la distance. 1.1 Référence interne 1.2 Référence à la verticale Le capteur dispose d’une origine arbitraire pour l’angle principal. L’angle secondaire fournit une valeur entre de l’axe principal et l’orientation du miroir ou du prisme. De cette manière, l’instrument dispose d’un système de coordonnées fixe par rapport à sa Dans de nombreuses applications, spécialement pour des relevés architecturaux ou d’extérieur, il est nécessaire de se référer à la verticale du lieu. Pour répondre à ce besoin, les constructeurs ont intégré un inclinomètre. Suivant les modèles, le fonctionnement peut varier : – soit, au début ou à la fin de son processus de mesures, le laser scanner va déterminer l’écart entre la verticalité du lieu et l’axe principal de l’instrument et l’orientation de cette inclinaison par rapport à son référentiel d’angle principal. Très souvent, ce processus se traduit par une lente rotation de l’instrument sur lui-même. Lors des assemblages, ces mesures pourront être prises en compte pour aider à définir la matrice de rotation 3D pour le/les nuage(s) lié(s) à cette station ; – pour d’autres instruments, la technique est plus proche de celle que l’on retrouve sur les stations totales. Pour chaque pixel mesuré, le système va tenir compte de l’inclinaison longitudinale et transversale de l’instrument. Il applique ces corrections directement aux mesures d’angles selon les formules de la figure 4. z d’ ζ φ x y x = d’ × cos(ζ) × cos(φ) y = d’ × cos(ζ) × sin(φ) z = d’ × sin(ζ) 1.3 Prise de photos Très souvent, le relevé lasergrammétrique sera complété par la prise de photos depuis le même point de vue. La caméra peut être intégrée à l’instrument ou placée comme accessoires (figure 5). d’ : distance mesurée entre la source laser et le point sur l’objet Φ, ζ : les angles dans 2 plans orthogonaux du rayon laser Intensité du signal retour Par calibration, il est possible de colorer chaque pixel mesuré en 3D par une valeur RVB reprise des images. Cela offre des nuages de points très réaliste et permet une reconnaissance parfois plus aisée des objets numérisés comme le montre l’exemple de la figure 6. Figure 2 – Les mesures brutes Figure 3 – Intensité du signal retour en RVB ou niveaux de gris Copyright © – Techniques de l’Ingénieur – Tous droits réservés 65 RAD 7 420 – 3 1 Référence Internet RAD7420 SCANNERS LASERS TERRESTRES ______________________________________________________________________________________________________ 2. Quelques considérations sur les lasers Axe principal vertical Lors de l’achat d’un scanner laser, les critères et les spécifications techniques sont importants pour que le choix de l’instrument soit adapté aux spécifications des mandats à réaliser. 1 2.1 Classification des scanners lasers inclL Généralement, une classification historique répartissait les instruments selon leur technique de mesures des distances. Pour les relevés d’ouvrages, de bâtiments ou en extérieur, il existe deux grandes familles : inclT Axe principal avoir – le temps de vol ; – la mesure par déphasage. inclt ) tan (ζ + incll) inclt y = d’ × cos(ζ + incll) × sin(φ + ) tan (ζ + incll) 2.1.1 Le temps de vol x = d’ × cos(ζ + incll) × cos(φ + Schématiquement, la technique du temps de vol (TOF pour times of flight, figure 7) détermine la distance en s’appuyant sur le temps nécessaire à une impulsion pour parcourir le trajet allerretour entre l’instrument et l’objet réfléchissant. z = d’ × sin(ζ + incll) Ce principe de mesures de distance est également utilisé dans les lidars aéroportés, ce qui fait que l’on retrouve quelques problèmes identiques dans les données brutes de ces relevés aériens (divergence des faisceaux, multi-échos). Par contre, toute la chaîne de traitements et de géoréférencement est différente. Figure 4 – Corrections du défaut de verticalité aux mesures brutes 2.1.2 La mesure par déphasage Une autre méthode pour déterminer la distance 3D entre l’instrument et l’impact est basée sur la mesure du déphasage d’une onde modulée en amplitude. On parle de scanner à différence de phase (phase shift method, figure 8). 2.1.3 Ressemblances et différences entre les deux systèmes de mesure de distances Si, durant les premières décennies d’utilisation des scanners lasers terrestres, ces deux techniques de mesure présentaient de nombreuses différences : Le Leica P40 est équipé avec une caméra (4 mégapixels) qui permet de générer une image 360°, tandis que le Riegl VZ 1000 est équipé d’un appareil réflex et d’un grand angle afin de couvrir le même champ de vision que l’acquisition lasergrammétrique. – une grande portée, pour une précision plus faible et une vitesse d’acquisition réduite pour la technique du temps de vol ; – une finesse du spot laser, une précision presque millimétrique et une vitesse d’acquisition de près d’un million de points par Figure 5 – Leica P40 et Riegl VZ1000 (sources : Leica Geosystems et Riegl) Les parties noires sont les secteurs du ciel où aucun point n’a été mesuré. Figure 6 – Coloration d’un nuage de points acquis avec le Riegl VZ1000 avec les images du réflex RAD 7 420 – 4 Copyright © – Techniques de l’Ingénieur – Tous droits réservés 66 Référence Internet IN215 INNOVATION Lidar : technique de détection au service de l’archéologie 1 par Murielle GEORGES-LEROY Conservatrice régionale de l’archéologie de Lorraine UMR 6249 Chrono-Environnement, LEA ModeLTER – MSHE Ledoux, France Laure NUNINGER Chargée de recherche CNRS UMR 6249 Chrono-Environnement, LEA ModeLTER – MSHE Ledoux, France et Rachel OPITZ Chercheur CAST – University of Arkansas, LEA ModeLTER – MSHE Ledoux, France Résumé : Technique de télédétection laser, le lidar est utilisé en archéologie pour détecter, cartographier les sites et analyser les paysages anciens. Cet article s’adresse aux archéologues et aux géomaticiens chargés de monter un projet ou de traiter et analyser des données lidar. Il présente tout le processus, de l’acquisition à l’interprétation des données, avec un focus sur les étapes pouvant influencer la qualité des résultats et une approche centrée sur l’étude des milieux forestiers pour la recherche et la protection du patrimoine. Abstract : Lidar, a remote sensing technique, is used by archaeologists to detect and map sites and analyze past landscapes. This paper is addressed to archaeologists and remote sensing specialists processing or analyzing lidar data, or using it within an archaeological research or heritage management project. This article presents the entire process, from acquisition to data interpretation, with a focus on the steps that influence the quality of results. The case studies presented focus on applications in forested environments. Mots-clés : laser aéroporté, archéologie, forêt, modèle numérique de terrain Parution : août 2014 - Dernière validation : août 2021 Keywords : lidar, archaeology, forest, digital terrain model Points clés Domaine : Traitement des données altimétriques, prospection archéologique, analyse topographique et microtopographique Degré de diffusion de la technologie : Émergence | Croissance | Maturité Technologies impliquées : Lidar, laser aéroporté Domaines d’application : Archéologie, environnement, géographie, études du paysage Principaux acteurs français : Pôles de compétitivité : Optitec, Route des Lasers, Aerospace Valley Centres de compétence : GeoSud, Réseau ISA Industriels : Optech, Riegl, Leica Autres acteurs dans le monde : VISTA (University of Birmingham, Royaume-Uni), LBI ArchPro (Ludwig Boltzmann Gesellschaft, Vienne, Autriche), CAST (University of Arkansas, USA) Contact : [email protected] – [email protected] – [email protected] 8 - 2014 Copyright © – Techniques de l’Ingénieur – Tous droits réservés 67 IN 215 - 1 Référence Internet IN215 INNOVATION méthodes de prospection utilisées sont variées et peuvent être réalisées au sol ou avec un vecteur aérien. Les plus classiques sont les prospections pédestres à vue qui consistent à repérer des épandages de matériaux et d’objets dans les labours ou des microreliefs dans les prairies ou les forêts. Le recours à des moyens mécaniques est surtout utilisé en archéologie préventive pour ouvrir des sondages régulièrement espacés, afin d’évaluer le potentiel archéologique d’un terrain destiné à être aménagé. D’autres méthodes peuvent être utilisées comme les prospections géophysiques permettant d’explorer le sous-sol (prospections électrique, électromagnétique ou radar) ou la télédétection (imagerie aérienne et satellitaire, données radar ou lidar). 1. Contexte 1 Le lidar, acronyme de l’expression anglo-américaine light detection and ranging (détection et télémétrie par la lumière), est une technique de télédétection active à impulsion laser utilisée dans le domaine atmosphérique et terrestre. Au niveau terrestre, il sert en particulier à réaliser des levés topographiques en trois dimensions de surfaces naturelles ou construites. Il permet d’obtenir une description précise de ces surfaces sous la forme d’un nuage de points géoréférencés. Il existe deux modes d’acquisition principaux : – soit par une station terrestre (TLS – terrestrial laser scanning) ; La télédétection permet de collecter et d’analyser des informations sur des objets sans qu’il y ait un contact direct entre l’objet et l’instrument utilisé pour enregistrer et mesurer. En général, on parle de « télédétection » pour l’ensemble des outils et techniques mis en œuvre pour étudier la surface du globe terrestre, comme les satellites, les prises de vue aériennes... L’avantage de la télédétection pour l’archéologue est qu’elle permet de prospecter de larges espaces très rapidement et qu’elle lui offre un accès direct à des terrains parfois éloignés et complexes à parcourir, comme les déserts ou plus récemment les massifs forestiers. Au-delà de la photo-interprétation, la télédétection permet de produire de nouveaux indicateurs à partir de traitements uniformes. Ces traitements ouvrent des perspectives en matière d’enregistrement systématique des données, laissant une place moins importante à la subjectivité et à l’intérêt propre des experts. Un autre avantage de la télédétection pour l’archéologue est sa capacité à fournir de l’information altimétrique permettant de produire des modèles numériques de terrain d’une résolution nettement supérieure à ceux fournis par l’IGN en France, par exemple. – soit par un système aéroporté appelé « ALS » (airborne laser scanning ) ou scanner laser aéroporté. Ce sont les systèmes aéroportés qui retiendront notre attention dans cet article pour des applications topographiques. Ces applications couvrent des domaines variés : géologie, sismologie, travaux publics, surveillance des risques naturels, mais aussi archéologie, où le lidar est utilisé pour la détection, la cartographie de sites et l’analyse des paysages anciens. Cet article traitera en particulier de l’utilisation du lidar aéroporté en archéologie, il sera principalement centré sur l’étude du milieu forestier, pour lequel la technologie lidar est particulièrement performante, et pour différents types de projets en recherche et dans le domaine de la protection du patrimoine. 2. Prospection archéologique et télédétection Il existe deux grands modes de télédétection : Pour l’archéologue, l’inventaire des sites archéologiques est une mission fondamentale. Le terme de « site archéologique » est ici employé dans un sens très large. Il couvre toutes les formes d’occupation du sol qui se traduisent par la présence de vestiges matériels dans un espace plus ou moins construit par l’homme. Il peut s’agir d’habitat mais aussi d’infrastructure viaire (route, chemin...), agro-pastorale (champ, enclos, terrasse, fossé...), économique (four à chaux, charbonnière, minière, carrière...), militaire (tranchée, batterie, fortification...) ou territoriale (frontière matérialisée par un fossé par exemple). Les sites archéologiques sont en grande partie totalement ou partiellement enfouis et nombreux sont ceux qui restent encore inconnus. Pourtant, même dissimulés, ils font partie intégrante de notre quotidien. Ce sont des éléments, parfois encore actifs, contribuant à la configuration territoriale et paysagère actuelle. Une bonne connaissance de ces sites est donc nécessaire pour une meilleure compréhension de l’espace dans lequel nous vivons afin d’aménager notre espace en tirant parti de l’héritage garant de l’équilibre des milieux. L’analyse archéologique des paysages offre en ce sens un retour dans la très longue durée (plusieurs siècles, voire millénaires) des effets de l’anthropisation. Il est donc important d’assurer l’inventaire de ces sites pour améliorer leur gestion patrimoniale et constituer les bases nécessaires aux travaux de recherche scientifique. – l’une avec des capteurs dits « passifs » qui utilisent l’énergie radiative de la terre et de l’atmosphère et permettent la production d’images dont on peut dériver de l’information altimétrique par photogrammétrie ; – l’autre avec des capteurs dits « actifs », c’est-à-dire qui émettent leur propre signal et en analysent le retour, comme les radars ou les lidars. Le lidar est donc un capteur-émetteur qui a l’avantage de fournir directement de l’information altimétrique pour réaliser des levés topographiques très précis sur de grandes surfaces. En archéologie, les lidars aéroportés sont utilisés à cette fin depuis le début des années 2000. Leur usage s’est particulièrement développé en milieu forestier à partir des années 2005-2006 en révolutionnant la prospection dans ce type de milieu. Une des caractéristiques du lidar est sa capacité à pénétrer le couvert végétal et à enregistrer une information qui permet de l’effacer virtuellement. Grâce à des densités de points élevées, les MNT obtenus par lidar ont des résolutions décimétriques à métriques avec une précision altimétrique centimétrique qui permettent de visualiser des microreliefs très peu marqués. Or les forêts recèlent de nombreux vestiges archéolo- De nombreux moyens sont mis en œuvre par les archéologues pour faire progresser cet inventaire archéologique : études de documents anciens, fouilles, prospections... Les IN 215 - 2 Copyright © – Techniques de l’Ingénieur – Tous droits réservés 68 8 - 2014 Référence Internet IN215 INNOVATION giques souvent conservés sous cette forme. La forêt a un caractère protecteur : les vestiges y sont en général beaucoup moins érodés ou perturbés que dans les zones agricoles ou urbanisées. Pourtant, du fait des contraintes de repérage, les vestiges conservés en forêt ne sont pas toujours étudiés par les archéologues. La visibilité au sol est souvent limitée par la présence de végétation basse ou de feuilles et la cartographie des vestiges avec des moyens classiques de topographie y est délicate. Il est également difficile de repérer des vestiges enfouis avec les méthodes de prospection géophysique utilisées en zone ouverte (prairie ou labour) car les racines perturbent le signal électrique ou magnétique enregistré par les capteurs fichés dans le sol. Enfin, compte tenu de la végétation, la prospection aérienne ne présente qu’un intérêt très limité et exceptionnellement utilisable pour étudier ce type de milieu. L’absence de sites dans certains massifs forestiers est donc plus souvent le résultat d’un manque de prospection archéologique que d’une absence réelle. Le lidar permet de s’affranchir d’une partie de ces contraintes en facilitant le repérage et la cartographie des vestiges archéologiques. Aspects historiques Si les premiers levés lasers aéroportés datent de 1970 notamment aux États-Unis et au Canada [1], la technologie des scanners lasers à balayage s’est développée plus tardivement au milieu des années 1990, en particulier pour des applications visant à modéliser de manière fine le relief sous le couvert forestier [2] [3] [4] [5]. Son intérêt pour l’archéologie a été reconnu en 2000 lors de deux colloques sur l’archéologie aérienne tenus à Aberdeen (Écosse) et à Leszno (Pologne). Les premières utilisations ont été effectuées en Grande-Bretagne sur des données acquises pour un autre usage par l’Agence de l’environnement. Puis, dès 2001, un premier vol spécifiquement archéologique a été réalisé dans le cadre d’une étude sur l’environnement historique de l’emblématique site de Stonehenge [6]. Au départ, la technique a été éprouvée en milieu ouvert sans classification de points, avant d’être généralisée au milieu forestier vers 2003-2004, avec l’utilisation de filtres permettant d’éliminer les points ayant touché la végétation ou des bâtiments. C’est ainsi que les données lidar acquises par le service du cadastre de la région du Bade-Wurtemberg en Allemagne ont permis la détection de champs bombés du Moyen Âge [7]. C’est également à cette période que la technologie fait un nouveau bond avec le premier capteur opérationnel à retour d’onde complète qui enregistre la totalité du signal. Utilisé dès 2006 par une équipe archéologique autrichienne sur la forêt de la montagne de Leitha [8], son usage reste encore peu développé en archéologie. À partir des années 2005-2006, l’utilisation du lidar en archéologie s’est largement développée, d’abord en Europe puis sur les autres continents. En France, le premier vol date de 2004 et durant l’hiver 2006-2007 une dizaine de projets ont couvert des zones de plusieurs dizaines de km2, principalement dans la moitié nord de la France. Menés dans le cadre de programmes de recherche archéologiques ou mixtes (archéologique et forestier notamment), certains ont été exploités à des fins de gestion patrimoniale des sites. Un levé lidar a ainsi été utilisé dès 2008 en archéologie préventive dans le cadre de la construction de la seconde phase de la ligne ferroviaire à grande vitesse Paris-Strasbourg [9]. Au contraire de leurs collègues européens ayant bénéficié des données acquises dans de gros programmes institutionnels, les archéologues français ont été initiateurs de la plupart des programmes d’acquisition, même si des projets institutionnels commencent à voir le jour (en Moselle par exemple en 2011-2012). Ce retard leur confère néanmoins une certaine avance, avec le développement d’une expertise assez spécifique intégrant l’ensemble des traitements et analyses dans une chaîne opératoire complète des données brutes au terrain. Néanmoins, si la technique s’avère très performante pour les forêts de feuillus, elle est nettement plus complexe pour les forêts de conifères ou les formations méditerranéennes de type lande, garrigue ou maquis. Dans ces milieux, la végétation est trop dense pour laisser passer la lumière et, dans le second cas, la végétation basse se confond avec les microreliefs. Ce sont en outre des zones difficiles d’accès pour lesquelles les prospections pédestres sont difficiles voire totalement inopérantes en raison de cette végétation basse très dense. Seuls les évènements exceptionnels d’incendie permettent de les aborder de cette manière. L’apport du lidar n’est toutefois pas restreint au milieu forestier. Les zones de prairies, par exemple, peuvent également receler des vestiges sous forme de microreliefs. Elles ont été beaucoup étudiées par prospection aérienne et prospection pédestre, mais le lidar reste un outil complémentaire utile, notamment par sa capacité à couvrir de très grandes surfaces et à fournir des données de qualité décimétrique permettant une cartographie très fine, en particulier des vestiges paléogéographiques (anciens chenaux, méandres...) et des traces agraires (limites parcellaires, crêtes de labour...). En milieu cultivé où prospections pédestre et aérienne sont très opérantes, les microreliefs sont bien moins conservés du fait des labours répétés et les données lidar y sont donc plus complexes à traiter. Leur apport est plus limité, mais toujours utile, pour repérer les voies et les limites parcellaires très aplanies et difficilement identifiables sur le terrain à l’œil nu. Dans tous les cas, même si la technologie lidar est devenue un outil majeur pour la recherche archéologique, il faut préciser que ce type de prospection ne remplace pas les méthodes existantes, car d’une part elle ne rend compte que de ce qui subsiste en sursol dans le relief actuel et d’autre part seule la combinaison entre ces diverses méthodes de prospection et d’autres analyses (étude des objets, des plans anciens...) permet de progresser dans l’interprétation des vestiges archéologiques (identification, datation). En ce sens, le lidar ne peut remplacer la fouille qui, seule, permet une exploration détaillée des vestiges enfouis et sur laquelle est fondée la construction des référentiels nécessaires à toute analyse de structures et de mobiliers de surface. 8 - 2014 3. Télédétection lidar Le lidar est une méthode de télédétection, fondée sur une mesure de distance. Le principe de la technologie est de répéter les mesures de distance à un objet à l’aide d’un système à impulsions laser, dont le faisceau lumineux est balayé à la surface de la terre par un miroir oscillant. Le fait de pouvoir répéter les mesures avec une fréquence très élevée permet d’obtenir une description précise du sol ou des objets en sursol (végétation, bâtiments) sous la forme d’un « nuage de points » renseigné par des coordonnées x, y et z, si on connaît Copyright © – Techniques de l’Ingénieur – Tous droits réservés 69 IN 215 - 3 1 Référence Internet IN215 INNOVATION 1 z GPS UMI : unité de mesure inertielle (enregistre le tangage, le roulis et la position de la plate-forme) faisceau laser x y Unité de localisation précise de la position du capteur UMI Appareil lidar qui émet des impulsions infrarouges lasers par balayage grâce à un miroir oscillant selon un angle défini par l’opérateur jusqu’à environ 30° v Station de base GPS v Figure 1 – Principe du lidar aéroporté (d’après Z. Kokalj et K. O s tir) par ailleurs la position exacte de la source émettrice. Ce nuage de points fait ensuite l’objet d’une classification permettant de séparer les points ayant atteint le sol de ceux ayant touché la végétation ou d’autres objets. Plusieurs modèles numériques d’élévation (MNE) peuvent être élaborés à partir de ces points, la résolution, altimétrique et planimétrique, dépendant de la densité de points disponibles. Le plus utilisé en archéologie est le modèle numérique de terrain (MNT) construit à partir des points sol. Des traitements de visualisation en 2D ou 3D peuvent alors être appliqués à ces données pour permettre la détection, l’interprétation, la cartographie et l’analyse des données archéologiques. Impulsion laser 3.1 Acquisition des données : vol et prétraitements 3.1.1 Principes de fonctionnement Les systèmes de lidar aéroporté sont composés d’une plate-forme ou vecteur (avion, hélicoptère), d’un équipement de géoréférencement et d’orientation (DGPS/centrale inertielle), du capteur-émetteur lui-même et des systèmes d’enregistrement de données (figure 1). L’appareillage lidar émet des impulsions lumineuses (généralement dans le domaine du proche infrarouge pour le lidar topographique) qui sont réfléchies par les surfaces (sol, végétation, bâtiments...) et sont renvoyées vers un capteur qui calcule le temps de retour du signal et son intensité. C’est ce temps de retour, connaissant la vitesse de la lumière, qui permet de calculer la distance entre le point d’impact et le capteur-émetteur. La position et l’altitude précises de chaque point sont déduites du calcul de la position du capteur-émetteur à chaque instant. Pour positionner directement les données altimétriques enregistrées tout au long du vol, on utilise un système embarqué composé d’un récepteur GNSS (Global Navigation Satellite System – système de positionnement global par satellites), de type DGPS ou GLONASS, et d’une centrale inertielle (UMI, unité de mesure inertielle) qui mesure l’accélération et la vitesse angulaire dans les trois directions, à une fréquence de 100 à 400 Hz. Pour améliorer la précision des localisations, le dispositif embarqué est complété par une ou plusieurs stations GPS au sol (base installée lors de l’acquisition ou station du réseau GPS permanent) permettant de réaliser des post-corrections. IN 215 - 4 0 0 6 20 12 40 18 60 24 30 Temps (ns) Distance (m) Seuillage Écho 1 Écho 2 80 Écho 3 100 36 120 42 140 Écho 4 Écho 5 Onde complète Figure 2 – Comparaison des enregistrements de type multi-écho et à retour d’onde complète 3.1.2 Capteurs et différents modes d’enregistrement Comme un rayon lumineux peut se diviser en plusieurs parties et toucher différents éléments de la surface (végétation au niveau des branches, des troncs...) avant d’atteindre le sol, les capteurs enregistrent plusieurs retours. Différents capteurs lidar sont disponibles pour une utilisation topographique (figure 2). Les systèmes d’enregistrement discret (multi-écho) enregistrent uniquement les pics de retours maximaux, correspondant aux différents éléments de la surface. Les systèmes d’enregistrement continu (retour d’onde complète ou full-waveform ) enregistrent la totalité du signal retour de chaque faisceau laser. Copyright © – Techniques de l’Ingénieur – Tous droits réservés 70 8 - 2014 Référence Internet IN215 INNOVATION § Les systèmes à retour discret sont actuellement les plus utilisés dans les projets archéologiques. Ils émettent des impulsions lasers et enregistrent seulement les pics d’intensité de l’onde rétrodiffusée. Le nombre d’échos mesurés varie selon les systèmes utilisés, de deux à six retours par impulsion envoyée, et les modes de calcul des pics sont également variés [10] [11]. Depuis 2006, les systèmes à « impulsions multiples dans l’air » (MPiA – Multiple Pulses in Air Technology ), en envoyant une nouvelle impulsion avant le retour de la précédente, sont capables de collecter plus de points dans un même vol que les systèmes à simple impulsion. Ils sont par conséquent plus utilisés pour les projets couvrant des surfaces importantes. 1 Angle de balayage Hauteur de vol § Utilisés plus rarement en archéologie, les systèmes d’enregistrement continu permettent d’extraire des échos dont on connaît la largeur et l’amplitude, ce qui a l’avantage d’augmenter le nombre de points identifiés et d’évaluer la précision de la mesure. Le traitement de l’onde complète offre notamment la possibilité de mieux distinguer la végétation basse du terrain stricto sensu, ce qui ouvre des perspectives intéressantes dans les milieux couverts de broussailles et dans les formations forestières étagées de type méditerranéen. Cependant, cette technique demande une expertise spécifique dans le traitement du signal et nécessite un investissement élevé en termes de temps pour obtenir des résultats pertinents. Si ce n’était pas la meilleure option jusqu’à présent pour l’archéologie, l’évolution rapide des méthodes de traitement rend toutefois ce système plus abordable sur le plan technique et parfois sans surcoût financier. 3.1.3 Principaux paramètres techniques et de vol Taches du sol Le premier élément à définir est la densité de points selon les applications envisagées. Elle peut varier de 0,1 pt/m2 à 5 pts/m2 pour des MNT standard, de 2 pts/m2 à 30 pts/m2 ou plus pour les vols spécifiquement opérés pour des applications archéologiques. Lar geu Certains paramètres de base du système lidar ont un impact direct sur la densité de points collectés, ainsi que sur la précision des mesures. On mentionnera ci-dessous les plus importants (figure 3). ban de Figure 3 – Principaux paramètres de vol § La plupart des systèmes lidar offrent un angle de balayage (ou de scannage) de 60o (ou un demi-angle de ± 30o). De grands angles de balayage augmentent la taille et déforment l’empreinte au sol en bordure de bande. Ils dégradent ainsi la précision de la mesure quand ils ne sont pas source d’erreur. Dans les zones boisées, plus l’angle est grand, plus le rayon lumineux risque d’être intercepté par des troncs ou d’autres objets sans atteindre le sol. Pour un couvert végétal très dense, un angle de balayage étroit, inférieur à 30o voire 40o, est donc recommandé. § La fréquence des impulsions, ou le taux de répétition des impulsions, est le nombre d’impulsions émises par le scanner laser par seconde. Les systèmes actuels supportent des fréquences allant jusqu’à 500 kHz pour les systèmes à retour discret et 120 kHz pour les systèmes à retour d’onde complète, mais ils peuvent être exploités à des fréquences inférieures. La densité finale du nuage de points, par conséquent la résolution du MNT, est directement liée à la fréquence des impulsions. Mais la fréquence du système ne préjuge pas de la fréquence de la mesure également dépendante du type et surtout de l’angle de balayage. § La largeur de la bande de vol est dépendante de l’angle de balayage et de la hauteur de vol. Plus ces deux paramètres seront importants, plus la bande permettant de couvrir une grande surface rapidement sera large. Toutefois, à fréquence d’impulsion et angle de divergence équivalents, ce gain en temps de vol va limiter le nombre de retours à partir du sol sous couvert forestier, donc diminuer la densité de points et altérer la précision de la mesure. § Le diamètre au sol de la tache (ou de l’empreinte) lumineuse varie en fonction de la hauteur de vol et de l’angle de divergence du laser. Il faut noter que plus la divergence est faible, plus l’énergie émise est concentrée sur une petite surface. Mais pour un même angle de divergence, l’empreinte au sol est d’autant plus grande que la hauteur de vol est élevée. Par exemple à une hauteur de vol de 1 000 m, les lasers utilisés en topographie ont des diamètres au sol de 20 à 25 cm. Une grande tache entraîne une précision moindre, car le rapport signal sur bruit est diminué et il devient plus difficile d’identifier les pics, mais aussi parce qu’une impulsion unique touche plus d’objets différents ou de variations de terrain. La taille de la tache peut ainsi affecter la précision horizontale et verticale de la mesure. 8 - 2014 rd e Pour plus de l’article [E 4 312]. précision sur ces paramètres, voir 3.1.4 Plates-formes ou vecteurs Les systèmes lidar peuvent être embarqués sur plusieurs types de vecteurs (avion, hélicoptère ou drone), selon les exigences du projet. Certains vecteurs sont capables Copyright © – Techniques de l’Ingénieur – Tous droits réservés 71 IN 215 - 5 Référence Internet IN215 INNOVATION 1 d’embarquer d’autres capteurs pour collecter simultanément des images multi- ou hyper-spectrales directement comparables aux données altimétriques, ce qui favorise leur traitement et l’interprétation des objets. erreurs verticales. In fine, la transformation des points dans un système de coordonnées locales est aussi une source d’erreur. Les erreurs les plus importantes sont généralement localisées sur les bords des bandes de vol, où les problèmes d’alignement sont les plus apparents. Ces erreurs peuvent être verticales ou planimétriques et, même si les deux sont liées, elles sont généralement quantifiées séparément. L’erreur absolue de précision verticale courante dans les levés lidar topographiques est de 10 à 20 cm, tandis que l’erreur horizontale est de 20 à 30 cm, mais avec un vol héliporté à basse altitude (moins de 100 m) et une forte densité de points (environ 80) il est possible d’atteindre une précision absolue altimétrique de 3 à 4 cm [15]. Toutefois, pour l’archéologue, la précision relative est plus importante que la précision absolue dans la détection des microreliefs et, bien qu’elle dépende du système lidar, elle peut être estimée à ± 5 cm pour une acquisition aéroportée standard. Chaque vecteur présente des caractéristiques pouvant avoir un fort impact sur les données collectées : densité de points, temps d’enquête nécessaire, taux de pénétration à travers la végétation et précision. Ainsi, les avions sont les plus appropriés pour couvrir de grandes surfaces, mais à des densités de points faibles ou moyennes. L’hélicoptère permet d’obtenir une densité de points plus élevée parce qu’il peut voler plus lentement et plus près du sol, mais il couvre une plus petite surface lors de chaque vol. Il est notamment utilisé pour la cartographie de corridors et, en archéologie, pour la cartographie de petites zones à des densités de points plus élevées. En outre, c’est le vecteur indispensable pour les visées obliques (falaises, surplombs...) [12]. L’utilisation de drones, plus flexibles à mettre en œuvre, n’en est qu’à un stade expérimental, mais ce vecteur est tout à fait approprié pour de toutes petites zones nécessitant une forte densité de points et plus de précision dans la mesure, qui demeure toutefois dépendante du type de capteur utilisé. 3.2 Classification et création de modèles numériques d’élévation (MNE) 3.1.5 Prétraitements Le nuage de points bruts regroupe indifféremment les points provenant du sol, de la végétation, du bâti ou d’autres objets en sursol. Ces points bruts doivent donc être classés (ou filtrés) pour séparer les points ayant touché le sol de ceux ayant atteint la végétation ou le bâti, ce qui permet la création de modèles de la surface terrestre (MNE, MNT, MNS). Les MNE ne sont pas de vraies modélisations 3D, mais des modélisations en « 2D et demie », car ils restituent une surface mais pas un volume. 3.1.5.1 Post-corrections, ajustement et contrôle qualité Pour garantir la qualité des mesures d’altimétrie, une série de prétraitements, réalisés par le fournisseur des données, est nécessaire : – trajectographie : il s’agit du calcul de la trajectoire du capteur (c’est-à-dire de la position précise de l’avion pour chaque enregistrement) immédiatement après le vol. On calcule d’abord la trajectoire GPS en mode différentiel (avec les données des stations GPS au sol), puis on la combine avec les données de la centrale inertielle pour prendre en compte les mouvements de l’aéronef (roulis, tangage et lacet) ; – génération du semis de points bruts, en s’appuyant sur la trajectoire de l’avion, l’angle de balayage, la distance et les paramètres de calibration du scanner laser ; – ajustement des bandes de vol et calcul des semis de points géométriquement corrects ; – contrôle de la qualité horizontale et verticale (calcul des erreurs résiduelles – RMS), à l’aide des zones de recouvrement des bandes et des surfaces de référence acquises préalablement par un relevé de terrain. Le terme de « MNE » regroupe de manière générique différents modèles de représentation topographique, les plus courants étant (figure 4) : – le modèle numérique de surface (MNS) qui représente la surface terrestre avec les éléments permanents du sursol (bâtiments, végétation). Il est construit avec les premiers échos renvoyés ; – le modèle numérique de terrain (MNT) qui reproduit le terrain nu (sol) et est construit avec les points ayant touché le sol. Il peut cependant inclure un certain nombre d’objets anthropiques, en particulier des digues et des remblais (routes, voies ferrées), mais aussi des vestiges archéologiques conservés sous forme de microrelief. 3.1.5.2 Marges d’erreurs La marge d’erreur est le résultat cumulé de toutes les erreurs enregistrées par chaque sous-système, à savoir le scanner laser, le GPS et la centrale inertielle [E 4 312] [13] [14]. 3.2.1 Classification (ou filtrage) des données L’étape de filtrage des données est complexe car le dernier écho enregistré ne provient pas forcément du sol. Cette étape a un fort impact sur ce qui pourra être tiré des données pour l’analyse et présente un risque de suppression d’informations importantes. Elle est souvent réalisée par le fournisseur de données, car elle nécessite des compétences spécifiques, du matériel et des logiciels adaptés. Néanmoins, il est vivement recommandé aux chargés de projets de suivre le traitement et de le valider, afin de l’adapter aux problématiques archéologiques étudiées. En outre, avec l’évolution rapide des techniques, c’est une opération qui devient accessible sur des superficies de quelques km2 et qu’il est important de pouvoir mettre en œuvre pour reprendre les classifications dans des zones d’intérêt particulier. Nous attirons ainsi l’attention sur le fait qu’il est absolument nécessaire de demander les nuages de points bruts pour toutes opérations d’acquisition. Ces erreurs peuvent être aléatoires, systématiques ou dépendantes du terrain. La principale source d’erreur aléatoire, qui produit du bruit dans le nuage de points obtenu, est liée au positionnement exact de l’avion : erreurs dues au GPS, à l’UMI et au système de balayage, problème de synchronisation entre ces trois éléments, conditions de turbulence. Les erreurs systématiques sont associées au scanner laser (erreurs de mesure de la distance, mauvais alignement de l’axe de visée, décalage du système de balayage et de l’angle du miroir) ou au système GPS/UMI (initialisation de l’UMI, erreurs d’alignement entre GPS et UMI). Les erreurs dépendant du terrain sont introduites par l’interaction du faisceau laser avec la surface terrestre (sol et sursol). Sur un terrain en forte pente ou avec un angle de balayage élevé, la taille et la déformation de l’empreinte laser au sol provoquent des IN 215 - 6 Copyright © – Techniques de l’Ingénieur – Tous droits réservés 72 8 - 2014 Géomatique (Réf. Internet 42641) 2 1– Collecte et acquisition des données géographiques 2– Traitement informatique des données géographiques Réf. Internet Systèmes d'information géographique : outil d'aide à la gestion territoriale H7415 75 Systèmes d'information géographique : études de cas H7416 79 Partage de données environnementales P4250 85 Morphologie mathématique et traitement d'images AF1515 91 page Sur www.techniques-ingenieur.fr • Saisissez la référence Internet pour accéder directement aux contenus en ligne • Retrouvez la liste complète des ressources documentaires 73 2 74 Référence Internet H7415 Systèmes d’information géographique : outil d’aide à la gestion territoriale 2 Pierre-Alain AYRAL Docteur ès-Sciences Enseignant-chercheur à IMT Mines Alès, France Sophie SAUVAGNARGUES Professeure Enseignante-chercheure à IMT Mines Alès, France Cet article est la version actualisée de l’article H7415 intitulé « Systèmes d’information géographique : outil d’aide à la gestion territoriale » rédigé par Pierre-Alain AYRAL et Sophie SAUVAGNARGUES en 2009. 1. 1.1 1.2 1.3 Des cartes papiers à la géomatique : définitions des SIG ........... Bref historique............................................................................................. Concept d’information géographique ....................................................... Définitions des SIG ..................................................................................... H 7 415v2 - 2 — 2 — 2 — 3 2. 2.1 2.2 2.3 Composantes des SIG ............................................................................ Personnel ..................................................................................................... Logiciels ....................................................................................................... Données ....................................................................................................... 2.3.1 Données de type raster...................................................................... 2.3.2 Données de type vecteur................................................................... 2.3.3 Bases de données géographiques.................................................... — — — — — — — 3 3 4 4 5 5 5 3. 3.1 3.2 3.3 3.4 3.5 Fonctionnalités des SIG......................................................................... Acquisition de données .............................................................................. Gestion et stockage des données .............................................................. Analyse des données.................................................................................. Restitution des données ............................................................................. Synthèse ...................................................................................................... — — — — — — 6 6 8 11 12 12 4. Domaines d’application......................................................................... — 12 5. Conclusion et perspectives .................................................................. — 13 6. Glossaire .................................................................................................... — 16 Pour en savoir plus .......................................................................................... Doc. H 7 415v2 n objet ou un événement localisé dans l’espace constitue, avec ses données attributaires, une information géographique. L’objectif des Systèmes d’lnformation Géographique (SIG) est de permettre la gestion de ce type d’information. Les SIG doivent donc être capables de traiter le volet graphique de l’objet, mais également son contenu sémantique ce qui le rapproche des Systèmes d’lnformation (SI). Le champ de ces informations géographiques est très vaste. Il comporte à la fois des objets localisables par nature (cours d’eau, routes, limites communales...) et d’autres (les plus nombreux) qui le sont par association. II est ainsi possible de rattacher le débit d’un cours d’eau à une station de mesure ou des Parution : mai 2021 U Copyright © – Techniques de l’Ingénieur – Tous droits réservés 75 H 7 415v2 – 1 Référence Internet H7415 SYSTÈMES D’INFORMATION GÉOGRAPHIQUE : OUTIL D’AIDE À LA GESTION TERRITORIALE _______________________________________________________ 2 clients à une région. De ce fait, les domaines d’application des SIG sont également très vastes et couvrent de nombreux domaines allant de l’aménagement du territoire au géomarketing. La représentation de cette information géographique est la cartographie, une des premières tâches qu’il soit possible de réaliser avec un SIG. Cependant, il est capital de noter qu’ils peuvent dépasser ce niveau d’analyse en permettant d’étudier les relations spatiales entre des objets d’une même thématique (compréhension de la structure des réseaux hydrographiques), mais également entre des objets de thématiques différentes (relation entre la répartition de la population et celle des centres hospitaliers par exemple). De ces analyses pourront découler des modèles et/ou des simulations qui conduiront à la production d’information à destination du décideur. C’est donc ce niveau d’analyse qui fait du SIG un outil d’aide à la décision territorial. L’objectif de cet article est de proposer une introduction aux SIG qui permet de revenir dans une première partie sur les concepts de cet outil, de détailler dans un second temps ses composantes (matériel, logiciels, méthodes, données et personnel). De manière à comprendre les usages qu’il est possible de faire grâce aux SIG, les fonctionnalités des logiciels SIG sont développées et les domaines d’applications sont présentés avec notamment une étude de cas consacrée à l’enseignement en gestion de crise. Les perspectives des SIG et de la géomatique (discipline traitant notamment des SIG), en pleine évolution, sont présentées en conclusion. Le lecteur trouvera en fin d’article un glossaire des termes utilisés. 1. Des cartes papiers à la géomatique : définitions des SIG 1.2 Concept d'information géographique Une information géographique représente tout objet pouvant être repéré par sa localisation et ses caractéristiques. Exemple Un objet peut être un arbre, cet arbre peut être un chêne ou un peuplier, il peut être haut, jeune ou vieux... 1.1 Bref historique Afin de mieux évaluer ce que peut apporter un système d’information géographique, il convient de mettre en évidence les principaux inconvénients de la cartographie papier : Une information géographique peut également être un événement localisé tel qu’une manifestation sportive ou encore un accident. – d’un point de vue structurel, le support papier n’a pas une stabilité dimensionnelle parfaite ; – la quantité d’information que peut contenir une carte est limitée, principalement pour des raisons de lisibilité ; – une fois produite, la carte papier est un document figé, il peut même arriver que des cartes soient périmées dès leur parution ; – il est difficile d’extraire une information exacte, compte tenu notamment du pouvoir de séparation de l’œil ; – aucune analyse quantitative ne peut être conduite entre deux cartes thématiques ; – toute analyse spatiale à partir de plusieurs cartes est difficile, voire impossible. Deux caractéristiques liées au concept d’information géographique sont fondamentales : – un point de l’espace peut comporter plusieurs objets superposés, le Rhône peut être considéré comme un fleuve, une limite communale, une limite départementale et une limite régionale ; – tous ces objets peuvent donner lieu à différents types de cartes comprenant différentes représentations d’un même objet ou le choix de différents objets à représenter parmi un ensemble. Il existe toutefois des informations qui ne sont pas géographiquement localisées, mais qui peuvent le devenir par destination. C’est le cas des données sur la population, des données sur les cultures agricoles, ou bien encore sur l’environnement. De fait, l’informatisation du dessin des cartes remonte aux années 1960. L’objectif était de faciliter les besoins de correction et de mise à jour, l’édition en grand nombre, à différentes échelles, etc. La finalité restait pourtant de produire une carte papier. Exemple Il est nécessaire d’être vigilant avec ce type d’information. En effet, elles doivent être rattachées impérativement à un attribut géographique pour une exploitation cartographique correcte. Une cartographie de la population de la France par département ne s’effectuera pas en associant directement le nombre d’habitants par département. Il sera nécessaire de rapporter cette population à la superficie du département et donc de cartographier la densité de population par département. La cartographie numérique est ensuite devenue une application de la branche Dessin Assisté par Ordinateur (DAO). De là est né le concept d’information géographique. Les premiers SIG sont apparus au Canada (Canadian Geographic Information System) et aux États-Unis (New York Land Use Information System et Minnesota Land Management Information System) à la fin des années 1960. H 7 415v2 – 2 Copyright © – Techniques de l’Ingénieur – Tous droits réservés 76 Référence Internet H7415 ________________________________________________________ SYSTÈMES D’INFORMATION GÉOGRAPHIQUE : OUTIL D’AIDE À LA GESTION TERRITORIALE Un SIG a pour fonction essentielle de gérer cette information géographique. Toutefois, il représente un sous-ensemble de la réalité de façon imparfaite : À retenir – Un système d’information géographique est défini comme un ensemble d’outils permettant de stocker, de visualiser et d’extraire de l’information géographique sur un territoire pour un ensemble particulier d’objectifs. – Une information géographique se définit par sa localisation géographique (ses coordonnées) et ses données attributaires. – Les premiers SIG sont apparus dans les années 1960 outre-atlantique. – un sous-ensemble, parce que l’on ne peut pas tout représenter, il faut choisir les objets géographiques pertinents en fonction notamment de ses objectifs ; – imparfait, car il est nécessaire de simplifier la réalité en fonction notamment de l’échelle d’étude. 1.3 Définitions des SIG À partir de l’analyse du concept d’information géographique, il est possible de définir les grandes questions auxquelles un SIG se doit de répondre : 2. Composantes des SIG – Où ? Être capable d’identifier la position d’un objet ou d’un groupe d’objets (répartition spatiale) ; Le terme de système d’information géographique englobe plusieurs composantes, représentées sur la figure 1, nécessaires à sa mise en œuvre : le matériel, le personnel (concepteurs/utilisateurs), le ou les logiciels déployés, les données et les méthodes. Dans cette section, trois composantes seront plus particulièrement développées : le personnel, les logiciels et les données. – Quoi ? Être capable de déterminer l’ensemble des objets présents sur une zone déterminée (inventaire, mise en évidence des superpositions et des proximités) ; – Comment ? Être capable de déterminer les relations entre les objets et/ou les événements présents sur un espace géographique (analyse spatiale) ; – Quand ? Être capable d’analyser l’évolution d’un objet, d’un groupe d’objets ou d’un événement (analyse temporelle) ; À noter que le développement et l’utilisation des SIG, y compris pour des applications utilisant des données à très hautes résolutions (imagerie spatiale par exemple) ne sont plus limités par les capacités informatiques. – Et si ? Être capable d’envisager des modifications dans la localisation des objets et/ou des phénomènes observés (simulation, étude d’impact, étude de projets). 2.1 Personnel Les définitions des SIG sont pléthores, pour les plus complètes elles définissent les aspects techniques de l’outil et son volet applicatif. Il est possible de présenter une des premières énoncées par Burrough [1] dans son ouvrage fondateur paru en 1986. Les SIG constituent une technologie synergétique et multidisciplinaire qui intègre des principes et des méthodes issues de plusieurs disciplines traditionnelles. Le tableau 1 propose une synthèse de ces disciplines. La géomatique, mot formé par la double contraction de « géographie » et « informatique », se positionne comme la discipline traitant des SIG. Le portail des GeoFormations (http://www.afigeo.asso.fr/ pole-formation-recherche/observatoire.html) a été mis à jour en 2017 par l’AFIGEO et GeoRezo (le portail francophone de la géomatique). Il présente 123 formations diplômantes et certifiantes, depuis le niveau baccalauréat jusqu’au doctorat. Définition 1 Un SIG est un ensemble puissant d’outils pour rassembler, stocker, extraire à volonté et visualiser des données spatiales du monde réel pour un ensemble particulier d’objectifs. Cette définition, outre sur les objectifs des SIG, insiste sur la pluralité des outils qui les composent. En effet, on a souvent tendance à réduire les SIG aux seuls logiciels qui permettent de les déployer. Logiciels D’autres définitions vont développer plus avant la spécification du champ d’application, et l’objectif in fine d’aide à la décision. La définition de Joliveau [2] illustre ce type de définition en l’appliquant aux territoires. Méthodes Matériel Analyse spatiale Analyse multicritères Définition 2 Les SIG se définissent comme l’ensemble des structures, des méthodes, des outils et des données constituées pour rendre compte de phénomènes localisés dans un espace spécifique et faciliter les décisions à prendre sur cet espace. Hiérarchisation Aide à la décision Personnel Il est possible de trouver d’autres dénominations qui restent similaires aux SIG. Ces acronymes peuvent être relatifs au champ d’application du SIG, comme par exemple SIT (Système d’Information du Territoire), BDU (Base de Données Urbaines) ou SIU (Système d’Information Urbain), ou bien une dénomination spécifique comme les SIRS (Système d’Information à Référence Spatiale) plutôt employés au Québec. Données Figure 1 – Les composantes d'un SIG Copyright © – Techniques de l’Ingénieur – Tous droits réservés 77 H 7 415v2 – 3 2 Référence Internet H7415 SYSTÈMES D’INFORMATION GÉOGRAPHIQUE : OUTIL D’AIDE À LA GESTION TERRITORIALE _______________________________________________________ Tableau 1 – Les disciplines des SIG Discipline 2 Contributions Géographie Identification des classes de phénomènes, des processus, des modalités d’organisation spatiale et de méthodes d’analyse spatiale. Cartographie Méthodes de représentation de l’espace géographique. Télédétection Techniques d’acquisition et de traitement de données obtenues avec des capteurs satellitaires et aéroportés. Photogrammétrie Techniques de mesure en trois dimensions permettant de déterminer les dimensions et les volumes des objets. Arpentage Données précises sur la position des éléments géométriques des parcelles de terrain, des bâtiments... Géodésie Méthodes de localisation de haute précision et portant sur de grandes étendues (dimensions et forme de la Terre). Statistique Méthodes d’analyse, de synthèse et d’interprétation des données. Informatique Conception assistée par ordinateur, infographie, SGBD, algorithmique, intelligence artificielle, génie logiciel. Mathématique Géométrie analytique, topologie, trigonométrie, théorie des graphes, algèbre, calcul différentiel et intégral. Génie civil Applications en transport, génie urbain. Aménagement Applications pour la gestion et le développement du territoire. (représentation du monde réel), anticipation (prospective). Chaque logiciel présente également ses propres spécificités. La mise en place et l’usage d’un SIG requièrent l’utilisation éventuelle d’autres types de logiciels ou de modules complémentaires externes, notamment pour des tâches spécifiques de gestion des bases de données (Access®, Oracle®, POSTGIS...), d’analyses statistiques, de gestion des données graphiques (Autocad, autres logiciels de DAO et/ou CAO) et de mises en forme des productions cartographiques (logiciels de cartographie et/ou de dessin), etc. 2.2 Logiciels Les solutions logicielles SIG sont nombreuses, et peuvent être regroupées en 3 catégories : logiciels libres, logiciels propriétaires et commerciaux, et logiciels propriétaires et gratuits. Si les logiciels libres sont d’utilisation gratuite (avec la possibilité de contribuer par des dons au développement du logiciel), certains logiciels propriétaires peuvent l’être également (Spring par exemple), même s’ils sont généralement à vocation commerciale et donc payant. Le tableau 2 présente une liste non exhaustive des principaux logiciels SIG. 2.3 Données Chaque logiciel dispose des fonctionnalités standards attendues d’un SIG : acquisition (saisie d’informations géographiques sous forme numérique), archivage (gestion de bases de données), analyse (manipulation et interrogation des données géographiques), affichage (visualisation et mise en forme), abstraction Les données sont un des éléments essentiels composant un SIG. Elles peuvent être acquises ou fabriquées, mais même si elles sont gratuites [3], elles représentent malgré tout un coût lié à leur construction. Tableau 2 – Les principaux logiciels SIG Nom Statut Diffusion Spécificité Arcgis Propriétaire Commerciale Plateforme de cartographie et d’analyse : analyse spatiale, imagerie et télédétection, cartographie et visualisation, temps réel, 3D, collecte et gestion de données. https://www.esri.com/fr-fr/home Géoconcept Propriétaire Commerciale Gamme de composants d’optimisation géographique, technologie nomade disponible en mode déconnecté. https://fr.geoconcept.com/ Grass Libre Gratuite Gestion et analyse des données géospatiales, traitement des images, production de graphiques et de cartes, modélisation spatiale et visualisation. https://grass.osgeo.org/# Mapinfo Propriétaire Commerciale Résolution des problèmes d’utilisation liés à la création de données spatiales, à leur analyse, leur mise à disposition et leur gestion (à destination des entreprises et des administrations). https://www.pitneybowes.com/fr QGIS Libre Gratuite Projet officiel de la fondation Open Source Geospatial (OSGeo) https://www.qgis.org/fr/site/ Spring Propriétaire Gratuite Télédétection et système de traitement d’image avec un modèle de données orientées objet. http://www.dpi.inpe.br/spring/francais/index.html H 7 415v2 – 4 Copyright © – Techniques de l’Ingénieur – Tous droits réservés 78 Référence Internet H7416 Systèmes d’information géographique : études de cas par Pierre-Alain AYRAL Docteur ès sciences Enseignant-chercheur à IMT Mines d’Alès, Chercheur associé à l’UMR CNRS 7300 ESPACE 2 Sophie SAUVAGNARGUES Professeure Enseignante-chercheuse à IMT Mines Alès Chercheuse associée à l’UMR CNRS 7300 ESPACE Yannick FOGUE-DJOMBOU Docteur ès sciences Consultant Billy POTTIER Master 2 en Géomatique Doctorant à IMT Mines Alès Florian TENA-CHOLLET Docteur ès sciences Enseignant-chercheur à IMT Mines d’Alès et Vincent THIERION Docteur ès sciences Ingénieur de recherche, CESBIO, INRAE Cet article est la version actualisée de l’article [H 7 416] intitulé « Systèmes d’information géographique : mise en œuvre » rédigé par Pierre-Alain AYRAL, Sophie SAUVAGNARGUES, Florian TENA-CHOLLET et Vincent THIERION en 2010. 1. Conception d’un SIG .............................................................................. 2. Focus sur l’analyse multicritère.......................................................... — 3 3. 3.1 3.2 SIG orienté Web ....................................................................................... Plateforme web ........................................................................................... Exemple de SIG orienté Web-Mapping et sciences participatives ......... — — — 8 8 9 4. 4.1 SIG et programmation ........................................................................... Langages Python et R pour la géomatique............................................... 4.1.1 Langages de programmation pour la géomatique ......................... 4.1.2 Manipulation d’objets vectoriels avec Python................................. 4.1.3 Utilisation de R ................................................................................... Modules « metiers » ................................................................................... 4.2.1 Démarrage .......................................................................................... 4.2.2 Trois applications............................................................................... 4.2.3 Points forts et points faibles des modules « métiers » ................... — — — — — — — — — 11 11 11 11 12 12 12 13 20 5. Conclusion................................................................................................. — 20 6. Glossaire .................................................................................................... — 20 4.2 H 7 416v2 - 2 Parution : février 2022 Pour en savoir plus .......................................................................................... Doc. H 7 416v2 ettre en œuvre un Système d’Information Géographique (SIG) est une action coûteuse en moyens matériels et logiciels, en données et en personnels. Une réflexion importante doit être menée pour évaluer les besoins M Copyright © – Techniques de l’Ingénieur – Tous droits réservés 79 H 7 416v2 – 1 Référence Internet H7416 SYSTÈMES D’INFORMATION GÉOGRAPHIQUE : ÉTUDES DE CAS _____________________________________________________________________________ du concepteur et/ou de l’utilisateur. Pour ce faire, un questionnement doit être mis en place de manière à définir un Modèle Conceptuel de Données (MCD) qui constitue la base du système d’information géographique. En parallèle à cette réflexion, il est bien souvent indispensable de sélectionner des solutions logicielles et informatiques qui seront nécessaires à la réalisation du projet. 2 L’objectif de cet article est de proposer une aide à la décision lors de cette étape de mise en œuvre en conduisant une réflexion sur les questions de base auxquelles il faut répondre lors de l’établissement d’un SIG, tout en présentant succinctement les possibilités offertes aux concepteurs. Des développements spécifiques sont proposés sur les applications Web et informatiques, tant ces dernières s’imposent de manière incontournable dans la mise en œuvre d’un SIG. Pour illustrer ce volet mise en œuvre, au-delà du focus généraliste sur la conception d’un SIG, trois axes d’exploitation sont proposés. Le premier illustre l’utilisation des SIG couplés aux méthodes d’analyse multicritères dans le but de résoudre une problématique spécifique. Le deuxième exemple présente la mise en place d’une application SIG orientée Web-Mapping et sciences participatives autour de l’hydrologie et discute notamment des choix techniques qui ont permis la réalisation de cette application. Enfin, un dernier développement propose un focus sur les SIG et la programmation, qui permet d’automatiser des traitements qu’il serait fastidieux de réaliser manuellement, en illustrant l’utilisation des langages Python et R au travers de modules métiers. Le lecteur trouvera en fin d’article un glossaire des termes utilisés. d’un SIG permet de disposer d’un ensemble d’informations pouvant être analysées, traitées et visualisées à l’aide d’outils informatiques, afin de pouvoir prendre un ensemble de décisions. Cette démarche implique la définition précise des objectifs à atteindre, le choix d’une solution organisationnelle et informatique, le chargement et la mise à jour des données et le traitement de ces données en fonction des différents besoins. 1. Conception d’un SIG Qu’il s’agisse de construire un équipement, d’aménager ou de gérer une zone, de produire de la connaissance, de gérer un service public, ou encore d’intervenir en cas d’accident, chacun de ces projets impose la prise de décisions impliquant de nombreuses personnes et la mise en œuvre de moyens importants. Il peut alors s’avérer rentable de mettre en place une information organisée, entretenue et gérée en permanence, prête pour plusieurs besoins ou pour un besoin imprévu. Un SIG rassemble des données d’origines diverses dans un système unique. Il est alors nécessaire de mettre en œuvre des normes et des procédures communes à tous les intervenants : la structure d’administration. Dans ce cadre, l’utilisation envisagée (ou envisageable) de l’information géographique peut être regroupée en grandes catégories : – l’accumulation de connaissances éparses, production de connaissances : il est souvent difficile pour un problème donné d’acquérir ou de produire une connaissance rapide et exacte du terrain. Les informations sont souvent réparties entre plusieurs organismes (réseaux, géologie, etc.), d’origine plus ou moins ancienne, connues éventuellement d’un groupe restreint de personnes (spécialistes ou population générale) ; – l’usage opérationnel de cartes et de plans actualisés : l’utilisateur souhaite disposer d’informations précises (cartographiques et alphanumériques) et homogènes de la réalité du terrain au moment où il doit intervenir (par exemple, canalisations diverses enterrées sous une voirie). Les données doivent être actualisées, car elles évoluent dans le temps (érosion, modification de tracés, modification de caractéristiques...) ; – la représentation de « clichés instantanés » archivés : certaines circonstances nécessitent de conserver l’image de situations antérieures, notamment pour l’étude de phénomènes évolutifs, que ce soit pour les données graphiques (par exemple, l’évolution d’une zone inondée) ou pour les données descriptives (évolution de la population) ; – la simulation d’événements : l’étude de l’impact d’un événement sur son environnement (accident, aménagement d’une zone, effet de la fermeture d’une vanne d’un réseau) nécessite une lisibilité des résultats et un caractère opérationnel des données. La mise en œuvre H 7 416v2 – 2 Le SIG est souvent localisé sur un serveur informatique unique sur lequel vont s’accumuler un ensemble de couches d’informations destinées à différentes applications, il est alors nécessaire de mettre en place une structure d’exploitation. La mise en œuvre d’une application SIG doit également suivre un certain nombre d’étapes incontournables : – l’analyse d’opportunité qui comprend la définition de la problématique, des orientations stratégiques, l’analyse de la pertinence du projet et la réponse à une question essentielle « Faire ou faire faire ? » ; – la maîtrise directe du système qui implique de disposer de la technicité indispensable en interne (ou de sa mise en œuvre) et d’en avoir démontré la rentabilité économique ; – l’étude de faisabilité qui couvre l’inventaire des besoins, l’élaboration des scénarios d’implantation, l’évaluation économique et l’impact du SIG sur le projet ou le fonctionnement de l’organisme ; – la maîtrise de l’usage du système qui implique l’expression des besoins, l’adéquation entre les besoins et la solution retenue, la pertinence et l’exactitude des données et enfin la validation des résultats ; – la modélisation du système qui peut conduire à construire les différents modèles conceptuels (en partant de la démarche décrite dans le tableau 1), à évaluer l’implication des utilisateurs, ainsi que les priorités de développement ; Copyright © – Techniques de l’Ingénieur – Tous droits réservés 80 Référence Internet H7416 ______________________________________________________________________________ SYSTÈMES D’INFORMATION GÉOGRAPHIQUE : ÉTUDES DE CAS La complexité des finalités doit s’accompagner de notions permettant l’exploitation de développements ouvrant des perspectives supplémentaires, dont quelques exemples sont présentés ci-après. Tableau 1 – Vers un modèle conceptuel de données (d’après [1]) Analyse des données Analyse des traitements Quelles informations manipule-t-on ? Que veut-on faire ? Niveau logique Comment structurer ces données ? Qui fait quoi ? où ? quand ? Niveau physique Où les stocker ? Comment ? Niveau conceptuel À retenir – Un Système d’Information Géographique (SIG) est défini comme un ensemble d’outils permettant de stocker, de visualiser et d’extraire de l’information géographique sur un territoire pour un ensemble particulier d’objectifs. – Une information géographique se définit par sa localisation géographique (ses coordonnées) et ses données attributaires. – La mise en œuvre d’un Modèle Conceptuel de Données (MCD) est un préalable à la conception d’un SIG. – l’analyse fonctionnelle qui vise à réaliser la description détaillée et à valider la nature et le rôle des procédés de traitement ; – la réalisation technique qui englobe l’acquisition des logiciels, la structuration des données, leur acquisition, la rédaction des référentiels de formation, ainsi que celle des guides d’opération ; – l’implantation et la formation qui visent à intégrer les fonctions et les applications du SIG, à réaliser les tests opérationnels de performance ou de fiabilité, éventuellement un pilote (différentes options de pilotes sont décrites dans la figure 1), à former les utilisateurs, et à effectuer les éventuelles corrections ergonomiques ; – l’exploitation et l’entretien, dernière étape, qui recouvrent l’utilisation du SIG, le perfectionnement des mécanismes de sécurité, la saisie et la validation des données, la réalisation des contrôles de qualité, la prise en compte de modifications. 2. Focus sur l’analyse multicritère Depuis les années 1990, les systèmes d’information géographique couplés aux méthodes d’analyse multicritères sont utilisés pour fournir des outils d’aide à la décision dans divers domaines comme l’urbanisme, le transport, l’environnement, etc. La démarche présentée ici concerne l’utilisation des SIG couplés aux méthodes d’analyse multicritères pour résoudre une problématique d’approvisionnement en matériau pour une filière dans un territoire donné [3]. Le principe est de produire des cartes décisionnelles recensant les possibilités d’approvisionnement dans le territoire et les différentes contraintes pouvant influencer la prise de décision du maître d’œuvre/ouvrage souhaitant réaliser un chantier dans le territoire considéré. La multitude des finalités possibles impose la nécessite de structurer la démarche de mise en œuvre d’un SIG. L’accès aux données est aujourd’hui grandement facilité, et la principale difficulté réside dans l’organisation logique de ces données en focalisant sur les objectifs visés. Figure 1 – Application SIG (d’après [2]) Copyright © – Techniques de l’Ingénieur – Tous droits réservés 81 H 7 416v2 – 3 2 Référence Internet H7416 SYSTÈMES D’INFORMATION GÉOGRAPHIQUE : ÉTUDES DE CAS 2 _____________________________________________________________________________ Par la suite, l’utilisateur SIG procède à la réalisation des cartes critères en hiérarchisant les différents critères et en les agrégeant. Ici la méthode utilisée est celle du critère unique de synthèse, correspondant à la somme pondérée des valeurs de la note du critère (ci) et de leur poids (wi) (équation 1). À partir de leur note globale obtenue , chaque parcelle sera classée et obtiendra un rang (wi) (1 pour la meilleure parcelle et 147 600 pour la parcelle la moins intéressante). Exemple : Pour illustrer la démarche, prenons le cas de la lauze, matériau en pierre utilisé dans l’architecture traditionnelle et patrimoniale dans le Massif central. Le but est d’assister un artisan voulant déterminer les meilleures solutions d’approvisionnement pour la réhabilitation de deux patrimoines situés dans le Lot et en Aveyron (tableau 2). Les solutions d’approvisionnement peuvent être en carrière existante ou en nouveau site d’extraction. La subdivision en parcellaire cadastrale est utilisée pour représenter les solutions. Pour notre cas, 147 600 parcelles ayant de la ressource sont considérées. La localisation des patrimoines dans le territoire donné et les possibilités d’approvisionnement sont représentées figure 2. Les parcelles cadastrales sont colorées en fonction de la probabilité de la présence de la ressource, plus la couleur est foncée, plus la présence de la ressource est avérée. La méthodologie développée figure 3 pour produire les cartes décisionnelles repose sur la mise en œuvre des principes des méthodes d’analyse multicritères dans les SIG. Les lignes continues matérialisent les étapes de la méthodologie, et les traits en pointillés les interactions avec les auteurs de la prise de décision à chaque étape. La première étape consiste à élaborer les cartes critères. À partir d’entretiens avec le maître d’ouvrage et différents acteurs pouvant intervenir sur la prise de décision, les critères influençant la décision du porteur de projet et leur poids sont définis. Les attributs de chaque parcelle cadastrale seront notés par rapport à chaque critère considéré (figure 4) Les critères influençant la décision peuvent être liés au statut administratif de la parcelle, la présence de la ressource, la qualité de la ressource, les exigences environnementales, les risques naturels ou la rentabilité économique. (1) Ainsi, les cartes décisionnelles sont produites avec les niveaux de recommandation pour approvisionner le chantier à partir des ressources locales du territoire (figures 4 et 5). Pour terminer, il est utile pour le donneur d’ordre de connaître l’influence de chaque critère sur la prise de décision. Pour cela, il faut procéder à l’analyse de sensibilité. Elle consiste à évaluer l’évolution de la note d’une parcelle lorsque la note d’un critère évolue. (2) En considérant les 100 parcelles ayant obtenu la meilleure note, et en fonction des chantiers, nous constatons qualitativement que les critères n’ont pas toujours la même influence sur la prise de décision. Comme on peut le constater sur les figures 6 et 7, pour le chantier 1, c’est le statut administratif des parcelles qui influence le plus la décision, alors que pour le chantier 2, c’est la qualité du matériau. Tableau 2 – Patrimoine à réhabiliter Chantier 1 : Caselle Description du chantier Caselle appartenant au conseil départemental du Lot, sur un Espace Naturel Sensible (ENS) et le long du « sentier des Caselles ». Restauration de sa toiture de 100 m2 en lauze calcaire. Chantier 2 : Église Église Saint-Chély, située dans la commune de Séverac-d’Aveyron en Aveyron, construite en 1651 par le duc Louis d’Arpajon, seigneur du château de Séverac. Restauration de sa toiture de 300 m2 en lauze calcaire. Photo H 7 416v2 – 4 Copyright © – Techniques de l’Ingénieur – Tous droits réservés 82 Référence Internet H7416 ______________________________________________________________________________ SYSTÈMES D’INFORMATION GÉOGRAPHIQUE : ÉTUDES DE CAS CORRÈZE 2 LOZÈRE HÉRAULT Chantier Nom de ville Périmètre du territoire Massif central Présence ressource hypothétique Présence ressource avérée Limite département Figure 2 – Localisation des chantiers à approvisionner dans le territoire Projet de construction Maître d’ouvrage (décideur) Réhabilitation d’un toit en lauze calcaire Architecte, propriétaire… 1- Cartes actions potentielles Gisements et carrières existantes (action parcellaire - cadastre) Maître d’œuvre (décideur) Artisan couvreur lauzier Les agis (influençant le jugement et la décision) Municipalité, préfecture, DREALs, UDAP 2- Définition et hiérarchisation des cartes critères Possibilité administrative, présence de la ressource, qualité de la ressource, exigences environnementales, risques naturels, rentabilité économique 3- Agrégation des critères Agrégation des performances Analyse de sensibilité 4- Carte décisionnelle Figure 3 – Méthodologie d’obtention des cartes décisionnelles Copyright © – Techniques de l’Ingénieur – Tous droits réservés 83 H 7 416v2 – 5 2 84 Référence Internet P4250 Partage de données environnementales par Grégory GIULIANI Chargé d’enseignement EnviroSPACE, Université de Genève – Institut des sciences de l’environnement, Genève, Suisse GRID-Genève, Programme des Nations unies pour l’environnement, Genève, Suisse 1. Contexte................................................................................................... 2. 2.1 2.2 2.3 2.4 Cadre théorique ..................................................................................... Préambule.................................................................................................. Infrastructures de données géospatiales ................................................ Interopérabilité et normes ........................................................................ Quelques exemples d’initiatives à l’échelle nationale, régionale et globale ................................................................................................... — — — — 3 3 4 7 — 9 3. 3.1 3.2 3.3 — — — 3 14 15 3.4 Quelques retours d’expérience.......................................................... Plateforme globale sur les risques naturels ........................................... Modéliser l’hydrologie du bassin-versant de la mer Noire ................... Utilisation des données d’observations de la Terre à des fins économiques ............................................................................ Quelques autres plateformes thématiques............................................. — — 17 17 4. 4.1 4.2 Discussion ............................................................................................... Bénéfices et limitations à la diffusion et utilisations des IDG ............... Perspectives............................................................................................... — — — 20 20 21 5. Conclusions............................................................................................. — 22 4. Glossaire .................................................................................................. — 23 Pour en savoir plus ........................................................................................ P 4 250 - 2 Doc. P 4 250 ous vivons dans un monde globalisé dont les processus tels que les changements climatiques, de couverture du sol ou la croissance de la population évoluent rapidement et impactent l’environnement. En parallèle, les moyens de communication ont connu une importante expansion prenant une place remarquable dans nos sociétés, nous permettant d’accéder à un flot continu et énorme d’informations. L’objectif de base de cet article est de rendre les données environnementales interopérables et de fournir un accès à des ressources de calcul pour permettre aux différents utilisateurs de passer plus de temps à l’analyse des données et moins à leur recherche, et ainsi faciliter l’accès aux données environnementales à de nombreux utilisateurs potentiels. La recherche actuelle a démontré que les concepts, méthodes et technologies liées aux infrastructures de données géospatiales (IDG) sont adaptés et peuvent apporter des bénéfices majeurs pour soutenir et faciliter la recherche, l’accessibilité, la visualisation, la dissémination et l’analyse de données environnementales. De plus, faciliter l’accès, l’intégration et l’utilisation de données géospatiales peut répondre aux besoins de communautés spécifiques et rendre disponibles ces données au plus large public possible. Les challenges auxquels l’humanité doit faire face requièrent d’agir aujourd’hui et de fournir aux décisionnaires des outils adéquats afin qu’ils puissent accéder rapidement et de façon efficace à de l’information environnementale fiable. Les IDG ont clairement ce potentiel qui permet de combler l’écart entre la science et l’élaboration des politiques. Parution : février 2016 - Dernière validation : août 2018 N Copyright © –Techniques de l’Ingénieur –Tous droits réservés 85 P 4 250 – 1 2 Référence Internet P4250 PARTAGE DE DONNÉES ENVIRONNEMENTALES __________________________________________________________________________________________ Le présent article souhaite, après avoir présenté pourquoi le partage de données environnementales est essentiel pour mieux appréhender le fonctionnement de notre planète, se concentrer sur les aspects techniques pour faciliter le partage de données environnementales. Qu’est-ce qu’une infrastructure de données géospatiales IDG ? Quels sont ses composants ? Qu’est-ce que l’interopérabilité ? Quelles sont les initiatives aux échelles nationale, européenne et mondiale qui permettent de faciliter l’accès aux données environnementales ? Plusieurs plateformes sont présentées, permettant de montrer les bénéfices et les limites techniques, économiques et institutionnelles du partage de données environnementales. 2 1. Contexte pouvoir les intégrer. Cela est principalement dû au fait que les données géospatiales sont volumineuses, complexes (géométries, relations, attributs), distribuées géographiquement et hétérogènes. En plus, les arrangements institutionnels et les politiques (par exemple, les droits d’auteur, droits de propriété intellectuelle) peuvent entraver la diffusion de ces données géospatiales. Tous ces facteurs influencent la façon dont les fournisseurs de données stockent, publient et diffusent des données environnementales. En outre, les utilisateurs manquent souvent de ressources de calcul appropriées pour analyser ces données. Les projets de recherches environnementales actuels ont régulièrement besoin de gérer plusieurs téraoctets de données et d’accéder à des ressources de calculs haute performance (cloud, grid, supercalculateur) ainsi que des logiciels. Cela explique pourquoi actuellement les sources de données sont souvent fragmentées, l’intégration des données géospatiales pour répondre à un problème scientifique est difficile et coûteuse, et la diffusion de l’information géospatiale est problématique et malheureusement appliquée de façon peu efficace. Par conséquent, faciliter l’accès aux données et aux ressources informatiques de haute performance peut potentiellement améliorer la situation mentionnée ci-dessus et permettrait aux utilisateurs de données de passer plus de temps à l’analyse qu’à la recherche de données et de permettre à davantage de personnes de bénéficier de l’utilisation de ces données. Notre planète est un système multidimensionnel fait d’interactions complexes, en constante évolution, à différentes échelles spatiales et temporelles. Pour comprendre ces interactions, il faut collecter et intégrer différents jeux de données sur les systèmes physiques, chimiques, biologiques, sociaux et économiques. L’ensemble de ces données permet de décrire au mieux l’environnement. Ces données sont communément géoréférencées, c’est-à-dire qu’elles décrivent un endroit à la surface de la Terre (donc localisables géographiquement) à travers un ensemble d’attributs. Un ensemble de données sur l’environnement est rarement intéressant en soi mais démontre plutôt son plein potentiel informatif lorsqu’il est utilisé conjointement avec d’autres jeux de données, permettant de surveiller et d’évaluer l’état réel de l’environnement aux échelles globale, régionale ou locale, et ainsi de mieux appréhender les relations complexes entre elles et finalement de pouvoir modéliser les changements futurs. En Sciences de l’environnement, « Observer, Partager, Informer » sont trois étapes nécessaires pour relever les défis complexes résultant de la pression croissante causée par les changements climatiques, la perte de biodiversité, l’exposition aux risques naturels ou d’autres menaces environnementales impactant nos sociétés et influençant divers aspects de notre vie quotidienne. Les décisionnaires en essayant de répondre et résoudre des problèmes tels que la pénurie de ressources naturelles, l’insécurité alimentaire, les pollutions, la préservation de la biodiversité ou encore l’efficacité énergétique doivent prendre de nombreuses décisions chaque jour. Cependant, ils sont tous régulièrement confrontés au même problème : ils ont besoin de prendre des décisions judicieuses uniquement sur la base d’informations partielles et par conséquent ils ne peuvent pas gérer efficacement ce qu’ils ne peuvent pas mesurer. Il est donc essentiel de pouvoir recueillir et intégrer la vaste quantité de données environnementales générées quotidiennement mais souvent exploitées de façon isolée pour pouvoir au mieux comprendre comment fonctionne notre environnement. Les observations de la Terre (par satellite ou par mesures in situ ) sont utilisées et compilées pour répondre à des questions spécifiques, pour comprendre ou expliquer une tendance, pour confirmer ou infirmer une thèse, pour faire des prédictions ou pour l’aide à la prise de décisions. Ces données représentent donc des mesures quantitatives correspondant à une valeur à un moment donné, dont le taux de variation, la distribution spatiale et de nombreux autres attributs permettent dedécrire notre environnement aussi précisément que possible. L’interopérabilité apparaît donc comme une condition essentielle pour élaborer un cadre de science ouvert permettant aux scientifiques et chercheurs de publier, découvrir, évaluer et accéder efficacement à des données environnementales. Les technologies actuelles sont adaptées et répondent à ces besoins à la condition que des interfaces logicielles ouvertes et libres ainsi que des normes soient développés permettant à ces technologies d’interopérer à l’échelle mondiale. L’Open Geospatial Consortium (OGC) a pour objectif de développer et de définir ces normes permettant la communication et l’échange d’informations entre différents systèmes de types différents exploités avec des logiciels et systèmes différents. En effet, un système non interopérable ne peut pas partager de données et de ressources informatiques, obligeant les scientifiques à passer beaucoup plus de temps que nécessaire sur la recherche et la transformation de données. L’OGC fournit dix-huit raisons pour lesquelles les normes d’interopérabilité peuvent aider considérablement les scientifiques dans leurs recherches quotidiennes et contribuer à des valeurs élémentaires de la science : – la transparence des données ; – la vérifiabilité ; – l’unification des observations ; – des études interdisciplinaires ; – les études transdisciplinaires ; – la réutilisation ; Actuellement, l’accessibilité, la disponibilité et la compatibilité des données ainsi que le manque de ressources de calculs pour les analyser sont parmi les difficultés les plus fréquentes qui influencent négativement la façon dont les scientifiques, les chercheurs, les décideurs et le grand public accèdent et utilisent ces données environnementales. En Europe, on estime que jusqu’à 50 % du temps des utilisateurs est passé dans la recherche et transformation de données afin de les rendre compatibles et de P 4 250 − 2 Copyright © –Techniques de l’Ingénieur –Tous droits réservés 86 Référence Internet P4250 ___________________________________________________________________________________________ PARTAGE DE DONNÉES ENVIRONNEMENTALES Une étude menée par la revue Science, interrogeant plus de 1 700 scientifiques, a montré que plus de 50 % des intervenants stockent leurs données uniquement dans leurs laboratoires [4]. Cela entrave évidemment la disponibilité et l’accès à ces données et ne constitue pas non plus une solution idéale de stockage à long terme. En outre, l’absence de description de ces données est un facteur interdisant la recherche de ces données. Finalement, 80 % des répondants n’ont aucun financement pour soutenir l’archivage et la gestion des données. Pour la plupart des scientifiques interrogés, bénéficier d’un accès amélioré aux données permettrait l’utilisation et la réutilisation de ces données autant que possible et offrirait de nombreuses opportunités. La possibilité d’intégrer des jeux de données peut potentiellement améliorer la compréhension des systèmes complexes, multidimensionnels et interdépendants, résoudre des problèmes sociétaux et environnementaux clés, ainsi qu’ouvrir la voie à de nouveaux domaines de recherche [5]. – la planification ; – le retour sur investissement ; – la comparabilité ; – la maximisation de valeur ; – la recherche/découverte de données ; – l’exploration de données ; – la fusion de données ; – le chaînage ; – le rythme de la science ; – la science citoyenne ; – la compatibilité ascendante ; – l’intervention en temps opportun. Par conséquent, en étant interopérable, tout système peut échanger largement et efficacement des données, afin de maximiser la valeur et la réutilisation de données et d’informations sous son contrôle. Cela permet l’échange de données et d’informations avec d’autres systèmes interopérables et cela permet à de nouvelles connaissances d’émerger à partir de relations qui n’ont pas été envisagées précédemment. L’objectif ultime étant de passer moins de temps dans la recherche de données et plus de temps à faire de la science, grâce à une intégration facilitée et à l’analyse des données efficace, et de faciliter la communication des informations et des résultats nouvellement générée. Les défis environnementaux collectifs d’aujourd’hui exigent non seulement que la science soit utile mais aussi et surtout utilisée. L’interopérabilité est donc une condition essentielle pour pouvoir atteindre cet objectif. L’un des plus importants progrès apportés par les TIC est l’émergence de ce que l’on appelle communément la science électronique ou e-science qui peut être défini comme « un accès accru, via l’Internet, à des ressources distribuées, facilitant la collaboration à l’échelle globale ». Un des thèmes brûlants dans la science électronique concerne l’accès aux données servant principalement comme base de la recherche scientifique. Un accès facilité et ouvert aux données peut être perçu comme un avantage permettant une large utilisation (à la fois pour les scientifiques et le public en général) et permettant en particulier aux scientifiques de comparer plus facilement leurs résultats et leurs méthodes et de renforcer ainsi la responsabilité et la crédibilité scientifique, ainsi qu’améliorer la qualité des données. Pour Arzberger et al. (2004) [3], en raison du fait que la recherche est de plus en plus globale, il y a un besoin clair de traiter systématiquement l’accès et le partage des données. Pour ces auteurs « s’assurer que les données scientifiques sont accessibles facilement afin qu’elles soient utilisées le plus souvent et largement possible est une question de saine gestion des ressources publiques ». Ces auteurs ont indiqué que les données financées par l’État sont un bien public produit dans l’intérêt public et devraient donc être librement accessibles dans la mesure du possible. Actuellement, dans certaines communautés scientifiques spécifiques (par exemple, les géosciences ou la météorologie), les données sont déjà partagées en utilisant l’état de l’art des technologies, mais leurs impacts restent faibles et restreint au sein de ces mêmes communautés. 2. Cadre théorique 2.1 Préambule Kofi Annan, le septième secrétaire général de l’Organisation des Nations unies et prix Nobel de la Paix 2001, a déclaré : « l’information et la connaissance sont au cœur de la démocratie et des conditions pour le développement .... La connaissance est le pouvoir. L’information est libératrice. L’éducation est la prémisse de progrès, dans chaque société, dans chaque famille ». Au cours des 30 dernières années, la quantité de données géospatiales disponibles a considérablement augmenté suite à l’évolution des moyens de communication et le développement rapide des technologies spatiales de capture de données tels que le Global Positioning System (GPS), la télédétection ou les réseaux de senseurs. Au cours des dix dernières années, avec l’avènement d’applications comme Google Earth, l’information géographique a été largement diffusée et systématiquement intégrée dans le flux de travail tant au niveau des agences gouvernementales que dans le secteur privé [6]. Dans un monde globalisé supporté par les technologies de l’information et de la communication (TIC), les moyens de communication ont considérablement élargi notre horizon permettant d’accéder à un flux énorme et continu d’informations influençant fortement notre société, notre économie, ou encore la façon dont les gens vivent et travaillent. Les TIC ont globalement amélioré la productivité des personnes permettant à chacun, ainsi qu’aux industries et aux pays, de participer conjointement au développement d’une société fondée sur la connaissance [1]. Ces changements influencent et transforment bien évidemment aussi le monde de la recherche scientifique. En effet, la science est basée sur des données. Deux des défis majeurs auxquels les scientifiques sont aujourd’hui confrontés sont [2] [3] : – l’énorme quantité, complexité et variété des données qui sont actuellement produites ; – être en mesure de tirer pleinement parti de la connaissance et de l’information produite par les scientifiques et les chercheurs. Malgré le fait que les administrations et les gouvernements reconnaissent que l’information géospatiale est importante et doit faire partie intégrante des données de base qui doivent être efficacement coordonnées et gérées dans l’intérêt de tous les citoyens, cette énorme quantité de données est stockée à différents endroits, gérée par différentes organisations et donc la grande majorité de ces données n’est malheureusement pas utilisée aussi efficacement qu’elle le devrait [7]. En outre, lors de la Conférence des Nations unies sur l’environnement et le développement à Rio de Janeiro en 1992, la résolution Agenda 21 a souligné l’importance de l’information géospatiale pour supporter la prise de décision et de gestion sur la dégradation et les menaces qui affectent l’environnement [8]. En d’autres termes, cela signifie qu’il est essentiel de disposer et d’accéder à une information appropriée. Le développement de bases de données et l’échange d’informations sont des conditions nécessaires pour envisager un développement durable et répondre aux besoins de gestion de Notre société dépend de plus en plus des progrès scientifiques et technologiques permettant par exemple d’améliorer la santé et le bien-être des êtres humains aussi bien que d’améliorer l’information sur les menaces environnementales ou encore le développement durable ou la gestion des ressources naturelles. En outre, les scientifiques ont parfois été critiqués pour leur manque de transparence (par exemple, lors du climategate ). Par conséquent, une meilleure collecte, gestion, stockage et accès des données sont des éléments essentiels pour améliorer cette situation. Copyright © –Techniques de l’Ingénieur –Tous droits réservés 87 P 4 250 – 3 2 Référence Internet P4250 PARTAGE DE DONNÉES ENVIRONNEMENTALES __________________________________________________________________________________________ 2 Cela conduit inévitablement à un usage inefficace et à une duplication des efforts. Il est donc évident que les pays peuvent bénéficier à la fois économiquement et environnementalement d’une meilleure gestion de leurs données. l’information pour la mise en œuvre et le suivi des politiques de développement durable et des objectifs tels que les Objectifs du développement durable (ODD) des Nations unies. Ainsi, l’information géographique peut être considérée comme un élément qui supporte de nombreuses disciplines scientifiques ainsi que la prise de décisions politiques à toutes les échelles, du local au global [9]. L’expérience des pays développés montre que plus des deux tiers des décisions politiques sont influencés par de l’information géographique. Cependant, l’information géospatiale est une ressource coûteuse à maintenir et qui prend du temps à produire. Il est donc nécessaire pour améliorer l’accès et la disponibilité des données de promouvoir leur réutilisation. Bon nombre des décisions que les différentes organisations ont besoin de prendre dépendent directement de la disponibilité d’informations sur leur territoire. En conséquence, un accès facilité à des données adéquates et cohérentes est nécessaire pour répondre à ce besoin crucial. En conséquence, il est maintenant essentiel de rendre ces données facilement disponibles et accessibles afin de donner la possibilité aux utilisateurs de les transformer en informations compréhensibles avec des avantages clairs et larges pour la société et l’économie, parce que « c’est en travaillant ensemble que nous pourrons aider à résoudre bon nombre des problèmes les plus urgents de notre société... ». Il est évident qu’il y a encore de nombreux défis à relever lorsque l’on commence à partager des données, mais ils doivent être surmontés afin d’améliorer notre connaissance, en partageant nos expériences et en essayant de construire une société mieux informée. Atteindre l’objectif d’un développement durable nécessite l’intégration d’un grand nombre de différents types de données provenant de différentes sources. Grâce à des normes communes et à une volonté institutionnelle/politique claire, ces données peuvent être échangées et intégrées d’une manière interopérable, conduisant à une nouvelle approche de collaboration pour la prise de décision. En 1998, l’ancien vice-président des États-Unis, Al Gore, a présenté le concept visionnaire et révolutionnaire d’une Terre digitale « une représentation en trois dimensions de la planète, dans laquelle nous pouvons intégrer de vastes quantités de données la Terre » [10]. Au jour d’aujourd’hui, cette vision n’est pas encore pleinement réalisée mais reste toujours pertinente. Pour Al Gore, le challenge le plus important pour tirer parti de cette énorme quantité d’information est de « donner un sens à des données brutes en les transformant en informations compréhensibles » car actuellement nous avons plus de données que nous sommes en mesure d’en gérer et elles sont stockées dans des « silos de données électroniques » et ne sont la plupart du temps jamais utilisées. Al Gore a imaginé des applications où « l’information peut être facilement fusionnée avec une carte ou des données numériques terrain » permettant à l’utilisateur de se déplacer à travers l’espace et le temps. Pour réaliser cette vision, un important effort de collaboration (gouvernement, industrie, milieu académique et citoyens) est nécessaire. Au jour d’aujourd’hui, toutes les technologies et les capacités nécessaires pour transformer cette vision en réalité sont disponibles : – informatique : même un simple ordinateur de bureau peut traiter des modèles et des simulations complexes. Avec le potentiel des technologies telles que le Cloud Computing, de nouveaux éclairages sur les données sont possibles, donnant la possibilité de simuler des phénomènes qui sont impossibles à observer ; – stockage de masse ; le stockage téraoctets de données sur un ordinateur de bureau n’est plus un problème ; – observations de la Terre ; de nombreux satellites observent continuellement la Terre fournissant des données multispectrales, spatiales et temporelles ; – senseurs ; il est désormais possible d’accéder aux données en temps réel provenant de senseurs qui surveillent et mesurent continuellement différentes variables environnementales (température, précipitation) ; – réseaux à large bande ; elles sont déjà une réalité en donnant la possibilité de connecter différentes bases de données ensemble ; – interopérabilité ; elle permet la communication, l’échange et l’intégration de données ; – métadonnées ; elles décrivent les données permettant à un utilisateur d’évaluer et de découvrir les données avant de les utiliser. 2.2 Infrastructures de données géospatiales Les données géospatiales peuvent donc être vues comme une ressource que l’on peut partager et qui peut être maintenue continuellement [8]. Disposer de données géospatiales sous forme numérique permet de : – facilement les stocker dans les bases de données ; – faciliter l’échange et le partage ; – avoir des mises à jour plus rapides ; – offrir la possibilité d’intégrer des données provenant de sources diverses ; – favoriser enfin le développement de produits et de services personnalisés. Par conséquent, un environnement collaboratif basé sur la notion de partenariat dans la production, la gestion et l’intégration de données apporterait des nombreux avantages [12]. Le concept d’infrastructure de données géospatiales IDG (Spatial Data infrastructure SDI) a émergé au début des années 2000 afin de faciliter et coordonner l’échange et le partage de données géospatiales. Une IDG (infrastructure de données géospatiales) est constituée non seulement des sources de données mais tient compte également des aspects techniques (serveurs, réseaux, normes) et aussi des aspects institutionnels (droits, gestion, gouvernance) afin de faciliter la recherche et l’accès aux données provenant de différentes sources au plus grand nombre possible d’utilisateurs. On peut voir une IDG comme une autoroute de l’information intégrant des données allant du local au global et constituant un cadre nécessaire pour une communauté afin de faire un usage efficace des données géospatiales. Les IDG visent à éviter la duplication des efforts et des dépenses en permettant aux utilisateurs d’économiser des ressources et du temps en essayant d’acquérir ou de maintenir des jeux de données. Masser (2005) [75] et Nebert (2005) [8] donnent une définition complète de ce qu’est une IDG : « Une infrastructure de données géospatiales permet un accès facilité à l’information géographique. Ce résultat est obtenu grâce à l’action coordonnée des nations et des organisations qui promeuvent la sensibilisation et la mise en œuvre de politiques complémentaires, de normes communes et de mécanismes efficaces pour le développement et la mise à disposition des données géographiques numériques interopérables et des technologies pour soutenir la prise de décisions à toutes les échelles. Ces actions englobent des aspects politiques, organisationnels, technologiques, financiers, humains, Même si toutes ces technologies sont prêtes, les organisations et agences à travers le monde continuent de dépenser des milliards de dollars chaque année pour produire, gérer et utiliser des données géospatiales sans obtenir l’information dont ils ont besoin pour répondre aux défis auxquels notre monde est confronté [11]. De nombreux auteurs soulignent également les faits que : – la plupart des organisations et/ou organismes ont besoin de plus de données qu’ils ne peuvent se permettre ; – ces données sont souvent en dehors de leur juridiction ; – les données recueillies par les différentes organisations sont souvent incompatibles. P 4 250 – 4 Copyright © –Techniques de l’Ingénieur –Tous droits réservés 88 Référence Internet P4250 ___________________________________________________________________________________________ PARTAGE DE DONNÉES ENVIRONNEMENTALES permettant aux utilisateurs de trouver, découvrir, évaluer et utiliser des données, à savoir : – des jeux de données de base clairement définis ; – le respect des normes et des procédures connues et acceptées internationalement ; – des bases de données pour stocker des données et de la documentation accessible sur les données (métadonnées) ; – des politiques et des pratiques qui favorisent l’échange et la réutilisation des informations ; – des ressources humaines et techniques suffisantes pour collecter, conserver, manipuler et distribuer des données géospatiales ; – de bons canaux de communication entre les personnes/organisations concernées par les données géospatiales, permettant d’établir des partenariats et de partager des connaissances ; – la technologie d’acquisition et de diffusion de données à travers les réseaux ; – les arrangements institutionnels pour collaborer à coopérer et coordonner des actions. afin d’assurer que les données sont facilement accessibles à toute à chacun ». Si, auparavant, l’information géographique était essentiellement présentée sous la forme de cartes papier, elle est désormais surtout utilisée sous forme numérique dans un SIG. Un système d’information géographique (SIG) est un logiciel qui permet d’assembler, de stocker, manipuler et afficher des informations géographiques. Un SIG donne la possibilité de fusionner/intégrer différentes informations provenant de différentes sources en facilitant la collaboration dans la création et l’analyse de ces données. Grâce aux nouvelles possibilités de réutilisation de données existantes, de nouveaux défis se posent. Quand un utilisateur souhaite créer une nouvelle couche d’informations basée sur différents jeux de données, des formats différents, avec une terminologie et une projection différentes, il est assez difficile de les réunir. L’harmonisation des données géospatiales est donc une tâche complexe, coûteuse et fastidieuse, mais néanmoins nécessaire pour pouvoir intégrer différents jeux de données. Rajabifard et Williamson (2001) [12] font remarquer qu’il y a une composante supplémentaire très importante représentée par les personnes. Cela inclut non seulement les utilisateurs de données géospatiales mais aussi les fournisseurs de données et d’autres dépositaires de données. Pour ces auteurs, les gens sont la clé pour le traitement des transactions et de la prise de décision. Faciliter le rôle des personnes et des données en matière de gouvernance qui prend en charge de manière appropriée la prise de décision et les objectifs de développement durable est au cœur du concept d’IDG. La reconnaissance croissante qu’une fois qu’un jeu de données a été créé, il peut être utilisé par différents utilisateurs renforce la nécessité de stocker des données dans des bases de données qui sont rendues accessibles pour des utilisations diverses et variées. Cela conduit à la notion que les données géospatiales peuvent être une ressource partageable maintenue en permanence. Les avantages d’avoir des données géospatiales sous forme numérique sont les suivants [13] [14] : – stockage facilité ; – diffusion facilitée ; – facilité de l’échange et partage ; – mises à jour et corrections plus rapides et plus faciles ; – capacité à intégrer des données provenant de sources multiples ; – personnalisation des produits et services. En résumé, Rajabifard et Williamson (2001) [12] suggèrent qu’une IDG ne peut pas être considérée seulement comme composée de données géospatiales, des services et des utilisateurs, mais implique aussi d’autres questions relatives à l’interopérabilité, les politiques et les réseaux. 2.2.2 Évolution future et tendances 2.2.1 Composants d’une IDG Différents auteurs [15] [16] [17] ont étudié la diffusion et l’évolution des IDG dans le monde et montrent que les motivations derrière les initiatives IDG sont généralement similaires : – promouvoir le développement économique ; – stimuler un meilleur gouvernement ; – favoriser la durabilité de l’environnement ; – modernisation de l’État ; – gestion de l’environnement. Masser (2005) [75] identifie les différents secteurs pouvant interagir sur une IDG démontrant la diversité des acteurs impliqués et de leurs intérêts : – organisations gouvernementales nationales ; – organisations gouvernementales locales ; – secteur commercial ; – organisations non gouvernementales à but non lucratif ; – université ; – individus. Ils sont tous d’accord sur le fait que, dès aujourd’hui, une masse critique d’utilisateurs a été atteinte à la suite de la diffusion des concepts IDG au cours des dix à quinze dernières années. Cela fournit un réseau de base de personnes et d’organisations qui est essentiel pour le développement futur des IDG. Par conséquent, la tentation est grande de créer un système centralisé qui répondrait à tous les besoins de ces utilisateurs. De plus, Ezigbalike (2004) [13], Henricksen (2007) [11] et Nebert (2005) [8] rapportent que l’existence de données et d’informations pertinentes ne garantit pas qu’elles seront utilisées. D’autres facteurs importants sont à considérer pour assurer que l’information sera utilisée et réutilisée : – le besoin de savoir que les données existent, et où elles peuvent être obtenues ; – l’autorisation pour accéder et utiliser ces données ; – le besoin de connaître l’histoire de la capture de données, afin d’interpréter correctement, lui faire confiance et être en mesure de l’intégrer de façon significative avec les données provenant d’autres sources ; – le besoin de savoir si les données dépendent d’autres jeux de données, afin de donner un sens aux données. Rajabifard et Williamson (2001) [12] constatent que la première génération des IDG, basée sur un modèle de produit, a fait place à une deuxième génération au début des années 2000, cette dernière étant caractérisée par un modèle de processus. En effet, la première génération des IDG était basée sur le produit, visant principalement à relier les bases de données existantes entre elles tandis que la seconde génération vise à définir un cadre pour faciliter la gestion et la réutilisation de données collectées par un large éventail de personnes et/ou organisations, devant répondre à une grande diversité d’objectifs, tout cela à différentes échelles de temps et d’espace. Pour Masser (2005) [75], cette évolution souligne le passage de préoccupations des producteurs de données à ceux des utilisateurs de données et le passage de structures centralisées à des réseaux décentralisés et distribués comme le Web. Le modèle basé sur les processus met l’accent sur les canaux de communication ainsi que sur le renforcement des capacités pour la Par conséquent, pour exploiter pleinement le potentiel des données, une IDG doit être constituée de différents composants Copyright © –Techniques de l’Ingénieur –Tous droits réservés 89 P 4 250 – 5 2 Référence Internet P4250 PARTAGE DE DONNÉES ENVIRONNEMENTALES __________________________________________________________________________________________ L’architecture SOA est le principe de base soutenant la mise en place de services Web. L’objectif principal étant de faciliter le couplage avec des composants logiciels afin qu’ils puissent être réutilisés. Dans une architecture SOA, l’élément clé est celui des services. Un service est un ensemble d’actions, autonome et ne dépendant pas de l’état des autres services. Dans une architecture SOA (figure 1), il y a trois acteurs : – le fournisseur de services ; – le demandeur de services ; – le courtier en service ; associés à trois opérations fondamentales : publier, trouver et se connecter. Dans un scénario traditionnel, un fournisseur de services héberge un service Web et « publie » une description de service à un courtier de service. Le demandeur de service utilise une opération « trouver » pour récupérer la description du service et l’utilise pour « connecter » avec le fournisseur de service et invoquer le service Web lui-même. Harvest Catalog MEF CSW ISO 19139 ISO 19115 ta Se da eta arc Raster files eta vid o Pr Web hm em da Discover ta Desktop Print Vector files Access data 2 utilisant n’importe quelle plate-forme, modèle d’objet ou langage de programmation. Un service n’est rien de plus qu’une collection d’opérations qui peut être appelée par un utilisateur. Un service peut être simple (par exemple, générer une carte) ou complexe (par exemple, exécuter un modèle hydrologique). En résumé, les services Web permettent et facilitent la communication entre application via Internet et utilisent, en général, des normes ouvertes tels que XML. création d’IDG afin de faciliter la coopération et l’échange de données et de connaissances. Rajabifard et Williamson (2001) [12] mettent également en évidence le fait que les caractéristiques des systèmes sociaux influencent fortement l’approche adoptée pour mettre en œuvre et développer une infrastructure de données géospatiales. Ils proposent des questions et des stratégies à prendre en compte lors du processus de conception : – le développement d’une vision stratégique et d’une stratégie de mise en œuvre associée ; – la reconnaissance qu’une IDG n’est pas une fin en soi ; – une stratégie institutionnelle et une gouvernance afin d’avoir tous les processus de coordination administrés par un groupe. Actuellement, d’un point de vue technique, l’effort se concentre sur le développement et la mise en oeuvre de l’échange de données géospatiales de façon interopérable grâce à des services via l’Internet. Les IDG actuelles sont basées sur le concept de services Web et sur les architectures orientée services SOA (Service Oriented Architecture ) [18] [19]. Les services Web sont un paradigme où les différents systèmes ou fournisseurs offrent certains services pour certains groupes d’utilisateurs, ce qui permet un accès facile aux données au traitement. Cela souligne la nécessité que les systèmes impliqués puissent communiquer les uns aux autres. En d’autres termes, les services Web reposent sur l’interopérabilité. Les services Web offrent la possibilité de développer des applications Web en Create Databases Notebook Use PDA Pr ov GPS surveys ide ta da ta ss da e cc Publish Phone A GPS WFS WMS KML GeoJSON GeoRSS WCS Un créateur (Create) de données documente (Provide metadata) et publie sa donnée (Provide data). L’utilisateur (Use) recherche une donnée grâce à la métadonnée (Search metadata) et une fois trouvée il peut y accéder (Access data). Figure 1 – Schéma général d’une architecture SOA dans le cadre d’une IDG (doc. OGC) P 4 250 – 6 Copyright © –Techniques de l’Ingénieur –Tous droits réservés 90 Référence Internet AF1515 Morphologie mathématique et traitement d’images par Isabelle BLOCH Professeur Institut Mines-Télécom – Télécom ParisTech – CNRS LTCI – Paris 1. Un peu d’histoire............................................................................. 2. 2.1 2.2 2.3 2.4 Opérations de base ......................................................................... Définitions et propriétés .................................................................... Effets des opérations de base ............................................................ Cas des fonctions ............................................................................... Applications ........................................................................................ — — — — — 2 2 3 3 4 3. Formalismes mathématiques........................................................ — 5 4. Opérations géodésiques et reconstruction ............................... — 6 AF 1 515 – 2 5. Filtrage morphologique ................................................................. — 8 6. Transformation en tout-ou-rien et squelette ............................. — 10 7. Segmentation morphologique ...................................................... — 11 8. Quelques avancées récentes ........................................................ — 14 Pour en savoir plus.................................................................................. Doc. AF 1 515 a morphologie mathématique est rapidement devenue, depuis son introduction dans les années 1960 [10] [11] [21] [22], une théorie fondamentale du traitement et de l’analyse d’images. Les opérateurs qu’elle propose permettent de fournir des outils pour toute la chaı̂ne de traitement d’images, des prétraitements (filtrage, rehaussement de contraste) à la segmentation et à l’interprétation de scènes. Une des caractéristiques importantes de ces opérateurs est qu’ils sont non linéaires. Ils permettent de transformer les images, d’en extraire des caractéristiques, des objets ou encore des mesures par une analyse associant propriétés des objets eux-mêmes (forme, taille, apparence…) et propriétés du contexte (voisinage local ou relations avec d’autres objets). Pour décrire de manière très synthétique la « boı̂te à outils » de la morphologie mathématique, il faut retenir les points suivants : Parution : octobre 2012 - Dernière validation : juillet 2021 L – les transformations sont non linéaires, elles sont fondées sur des opérations de type sup et inf ; – les transformations sont généralement non inversibles, et elles perdent donc de l’information ; le travail du morphologue consiste alors à déterminer les transformations adaptées à son problème, c’est-à-dire qui vont « simplifier » les images en retenant l’information pertinente ; – des propriétés analytiques et algébriques sont attachées aux opérations, ce qui permet d’assurer des propriétés précises sur les objets ou images issues des transformations ; c’est sur ces propriétés que l’on s’appuie pour enchaı̂ner les transformations afin de résoudre un problème particulier ; – des algorithmes sont également associés aux transformations, permettant leur application de manière efficace. Dans la suite, nous ferons de rapides rappels historiques, puis introduirons les quatre opérations de base de la morphologie mathématique (dilatation, érosion, ouverture, fermeture), dans les cas d’images binaires et d’images à Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. – © Editions T.I. 91 AF 1 515 – 1 2 Référence Internet AF1515 MORPHOLOGIE MATHÉMATIQUE ET TRAITEMENT D’IMAGES –––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––– niveaux de gris. Quelques applications immédiates de ces opérations seront illustrées. Nous reviendrons par la suite sur les fondements mathématiques qui sous-tendent ces définitions, en particulier sur le cadre algébrique des treillis complets, qui est fédérateur et permet de définir des opérations plus générales. Nous étudierons ensuite quelques autres opérations utiles en pratique : opérateurs géodésiques et reconstruction, filtres, transformation en tout-ourien, amincissement, épaississement et squelette. Puis nous décrirons les outils morphologiques principaux de segmentation, avec en particulier la ligne de partage des eaux. En guise de conclusion, nous citerons quelques avancées récentes de la morphologie mathématique. Cet article s’appuie en partie sur un cours publié dans [4] [6]. 2 consulter les ouvrages de référence tels que [8] [14] [20] [21] [23]. Dans leur forme la plus usuelle, et la plus utile dans nombre d’applications, ces opérations transforment les images en analysant un petit domaine autour de chaque point, défini par la translation d’un ensemble appelé élément structurant. Nous supposons que les images sont définies dans un domaine S, qui peut être ℝn , ℤn dans le cas discret, ou un sous-ensemble borné de ces espaces en pratique. Dans le cas discret, le support de l’image est souvent appelé trame, et en pratique on travaille en trame carrée ou hexagonale pour des images à deux dimensions, en trame cubique pour des images à trois dimensions. Dans la suite, on note B l’élément structurant et Bx son translaté au point x Bx = {x + b b ∈B } . Notons que l’origine de l’espace peut appartenir ou ne pas appartenir à B. 1. Un peu d’histoire La morphologie mathématique a été développée à l’origine à l’École des Mines de Paris. Elle repose essentiellement sur les travaux de G. Matheron effectués dans les années 1960-1970, puis sur ceux de J. Serra et de son équipe au Centre de morphologie mathématique, aujourd’hui dirigé par F. Meyer. Depuis ces premiers développements, elle a pris une ampleur internationale et plusieurs équipes s’y consacrent. Développée à l’origine pour l’étude des matériaux poreux, la morphologie mathématique trouve maintenant ses applications dans de nombreux domaines du traitement d’images, aussi bien 2D que 3D, en biologie et cytologie quantitative, en imagerie médicale, en imagerie aérienne et satellitaire, en robotique et vision par ordinateur, en contrôle industriel non destructif, dans les études sur les documents et les œuvres d’art. Hors du domaine du traitement des images, on trouve des applications par exemple en analyse de données, sur des données représentées par des graphes, des hypergraphes, des ensembles flous, etc., en logique, ou encore en théorie des jeux. ( Considérons d’abord le cas d’images binaires. La dilatation d’un ensemble X ( X ⊆ S ) par un élément structurant B est définie par : ∨ δB ( X ) = X ⊕ B = {x + y x ∈ X , y ∈B } = x ∈S B x ∩ X ≠ ∅ , Elle a été développée initialement dans un cadre ensembliste, et donc avec des applications immédiates en imagerie binaire, ainsi que dans le cadre probabiliste des ensembles fermés aléatoires. Puis elle a été généralisée aux fonctions numériques. Le cadre algébrique des treillis complets, qui unifie la morphologie mathématique pour différentes structures mathématiques, a été introduit dans les années 1980 [21] et développé en particulier dans [9] [16] [17]. (1) ∨ où B désigne le symétrique de B par rapport à l’origine ∨ B = {− b b ∈B } . Cette définition est cohérente avec la vision moderne de la morphologie mathématique reposant sur la notion d’adjonction dans des treillis complets (voir section 3). Elle diffère, dans le cas d’éléments structurants qui ne sont pas symétriques par rapport à l’origine, de la définition originale où elle était définie L’ampleur qu’ont pris cette théorie et ses applications en traitement d’images est attestée par l’existence, depuis 1993, d’une conférence internationale sur le sujet. Celle de 2005 a ponctué les 40 ans de la théorie. Plusieurs logiciels de traitement d’images intègrent maintenant des opérations de morphologie mathématique, ce qui permet également leur diffusion et leur application plus large, aussi bien dans des laboratoires académiques que dans des équipes industrielles. ∨ par X ⊕ B . L’opération ⊕ est aussi connue sous le nom d’addition de Minkowski. L’érosion de X par B est définie par : εB ( X ) = {x ∈S Bx ⊆ X } . 2. Opérations de base (2) L’ouverture et la fermeture sont définies par composition, respectivement par : 2.1 Définitions et propriétés Dans cette partie, nous introduisons les quatre opérations de base de la morphologie mathématique : dilatation, érosion, ouverture et fermeture. Le lecteur souhaitant aller plus loin pourra AF 1 515 – 2 ) γ B ( X ) = δB ( εB ( X )) , (3) ϕB ( X ) = εB (δB ( X )) . (4) Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. – © Editions T.I. 92 Référence Internet AF1515 ––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––– MORPHOLOGIE MATHÉMATIQUE ET TRAITEMENT D’IMAGES pour effet de boucher les trous des objets qui sont plus petits que l’élément structurant. Elle régularise les contours des objets en rajoutant des points dans les concavités étroites (dans lesquelles ne peut pas se glisser l’élément structurant). On retrouve l’effet de filtrage, dual de celui de l’ouverture. Citons les principales propriétés de ces opérations : – elles sont croissantes pour la relation d’ordre partiel ⊆ par rapport à l’ensemble à transformer : X ⊆ Y ⇒ δB ( X ) ⊆ δB (Y ) et de même pour les trois autres opérations ; – la dilatation et la fermeture sont croissantes par rapport à l’élément structurant, alors que l’érosion et l’ouverture sont décroissantes ; – la dilatation est extensive (X ⊆ δB ( X )) et l’érosion est antiextensive (εB ( X ) ⊆ X ) si et seulement si l’origine appartient à B ; – l’ouverture est anti-extensive tandis que la fermeture est extensive (et elles ne dépendent pas de l’origine) ; – la dilatation et l’érosion sont duales par rapport à la complé- 2.3 Cas des fonctions Passons maintenant au cas des fonctions, afin de pouvoir manipuler des images à niveaux de gris. Soit f la fonction définie sur S représentant les niveaux de gris en chaque point de S (à valeurs dans un ensemble ordonné L) et g une fonction structurante (l’équivalent de l’élément structurant du cas binaire). Les définitions précédentes se généralisent sous la forme : ( ) mentation : (δB ( X )) = ε ∨ X c , où Xc désigne le complémentaire c B de X dans S. De même l’ouverture et la fermeture sont duales ; – la dilatation commute avec la réunion et l’érosion commute avec l’intersection : δB ( X ∪ Y ) = δB ( X ) ∪ δB (Y ) et et (5) ∀x ∈S , εg (f )( x ) = inf {f (y ) − g (y − x )} . (6) y ∈S ε ( X ∩ Y ) = ε ( X ) ∩ ε (Y ) . y ∈S Ces propriétés sont importantes car elles sont à la base de la définition de formes plus générales de ces opérations, comme nous le verrons dans la section 3. En revanche, on a seulement : δB ( X ∩ Y ) ⊆ δB ( X ) ∩ δB (Y ) ∀x ∈S , δg (f )( x ) = sup {f (y ) + g ( x − y )} , Le cas le plus utilisé en pratique est celui où g vaut 0 sur un support B et - • ailleurs, ce qui revient au cas d’un élément structurant B défini comme un sous-ensemble de l’image. On a alors : εB ( X ) ∪ εB (Y ) ⊆ εB ( X ∪ Y ) ; ∀x ∈S , δB (f )( x ) = sup f (y ) , (7) ∨ y ∈B x – la dilatation et l’érosion vérifient une relation d’itérativité : δB (δB ′ ( X )) = δB ⊕B ′ ( X ) et εB ( εB ′ ( X )) = εB ⊕B ′ ( X ), ce qui signifie que les effets de ces transformations s’amplifient au fur et à mesure que les opérations sont itérées ; – au contraire, l’ouverture et la fermeture sont idempotentes : g B (g B(X)) = g B(X) et ϕB (ϕB ( X )) = ϕB ( X ), et de manière plus générale, si l’on désigne par Bn un élément structurant de taille n, on a : ( ϕB (ϕB ) ( (X )) = ϕB (ϕB ) (X )) = ϕB γ Bn γ Bm ( X ) = γ Bm γ Bn ( X ) = γ Bmax n ,m ( X ) n m m n ( ) max (n ,m ∀x ∈S , εB (f )( x ) = inf f (y ) . L’ouverture et la fermeture se définissent par composition, comme dans le cas binaire. Notons qu’il est équivalent de dilater directement la fonction (ce qui est plus efficace en pratique) ou de dilater ses seuils. Par exemple pour la dilatation on a : (dB (f))l = dB (fl), où f λ = x ∈S f ( x ) ≥ λ , et { } { } et δB (f )( x ) = sup λ ∈L x ∈ δB (fλ ) . Cette propriété assure la cohérence entre le cadre fonctionnel et le cadre ensembliste. (X ) ; ) – si Bn est la boule de rayon n d’une distance d, alors la dilatation par Bn s’exprime comme le seuil de la fonction distance : { (8) y ∈Bx Les propriétés des quatre opérations dans le cas fonctionnel sont les équivalents de celles du cas binaire, en remplaçant les opérateurs ensemblistes par leurs équivalent (∩ par le min ou l’inf, ∪ par le max ou le sup, ⊆ par ≤…). Seul le lien avec la fonction distance ne peut pas s’étendre au cas d’images à niveaux de gris, puisqu’il n’y a pas de notion d’objet et de complémentaire dans ce cas. } δBn ( X ) = x ∈S d ( x , X ) ≤ n , et de même pour l’érosion, en prenant cette fois la distance au complémentaire de X. Cette propriété permet de calculer très rapidement des dilatations et érosions de grande taille, en utilisant des algorithmes rapides de calcul de distances [7]. Les principaux effets de ces transformations sont les suivants. Sur une image à niveaux de gris, la dilatation par un disque augmente les niveaux de gris, propage les maxima locaux des niveaux de gris (dans une région correspondant à la taille et à la forme de l’élément structurant). L’érosion d’une image à niveaux de gris par un disque a pour effet de diminuer les niveaux de gris, et de propager les minima dans une région définie par l’élément structurant. L’ouverture a pour effet d’écrêter les pics (si l’on considère le sous-graphe de la fonction comme un relief, où f (x) s’interprète comme une altitude au point x) qui sont plus étroits que l’élément structurant. La fermeture a l’effet dual de l’ouverture : elle comble les vallées qui sont plus étroites que l’élément structurant. En pratique, les éléments structurants sont choisis en fonction de la forme et de la taille des parties à supprimer ou à conserver après une transformation. 2.2 Effets des opérations de base Les effets de ces opérations peuvent être résumés comme suit. La dilatation par un disque a pour effet d’augmenter la taille des objets selon la taille du disque, de relier entre elles les composantes proches et de boucher les petits trous (plus petits que l’élément structurant au sens de l’inclusion). La dilatation par un segment centré à une de ses extrémités a pour effet d’étendre l’objet dans la direction du segment. L’érosion par un disque a les effets suivants : l’objet est diminué selon la taille de l’élément structurant, les composantes connexes de l’objet plus petites que l’élément structurant (toujours au sens de l’inclusion) sont supprimées, les parties des objets reliées par des isthmes plus fins que l’élément structurant sont déconnectées. L’ouverture a pour effet de supprimer les parties des objets plus petites que l’élément structurant, et de régulariser les contours en supprimant les petites excroissances (trop fines pour pouvoir contenir l’élément structurant). C’est l’effet de filtrage décrit par propriétés algébriques de croissance et d’idempotence (voir section 5). Elle ne réduit pas systématiquement toutes les structures comme le fait l’érosion. La fermeture a La figure 1 illustre les quatre opérations sur une image montrant les vaisseaux sanguins de l’œil. Des dilatations avec des éléments en forme de losange (correspondant à la 4-connexité sur la trame carrée), de carré (correspondant à la 8-connexité) et de disque approché permettent d’illustrer l’influence de la forme de l’élément structurant. Les éléments structurants élémentaires (de taille 1) sont illustrés à la figure 2. Les maxima sont par exemple propagés selon la taille et la forme de l’élément structurant. L’exemple Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. – © Editions T.I. 93 AF 1 515 – 3 2 Gagnez du temps et sécurisez vos projets en utilisant une source actualisée et fiable RÉDIGÉE ET VALIDÉE PAR DES EXPERTS MISE À JOUR PERMANENTE 100 % COMPATIBLE SUR TOUS SUPPORTS NUMÉRIQUES SERVICES INCLUS DANS CHAQUE OFFRE + de 340 000 utilisateurs chaque mois + de 10 000 articles de référence et fiches pratiques Des Quiz interactifs pour valider la compréhension SERVICES ET OUTILS PRATIQUES Articles Découverte Questions aux experts* Archives Info parution Dictionnaire technique multilingue La possibilité de consulter Les meilleurs experts techniques Technologies anciennes et versions Recevez par email toutes les nouveautés 45 000 termes en français, anglais, et scientifiques vous répondent des articles en dehors de votre offre antérieures des articles de vos ressources documentaires espagnol et allemand *Questions aux experts est un service réservé aux entreprises, non proposé dans les offres écoles, universités ou pour tout autre organisme de formation. Les offres Techniques de l’Ingénieur INNOVATION • Éco-conception et innovation responsable • Nanosciences et nanotechnologies • Innovations technologiques • Management et ingénierie de l’innovation • Smart city Ville intelligente MATÉRIAUX • Bois et papiers • Verres et céramiques • Textiles • Corrosion – Vieillissement • Études et propriétés des métaux • Mise en forme des métaux et fonderie • Matériaux fonctionnels. Matériaux biosourcés • Traitements des métaux • Élaboration et recyclage des métaux • Plastiques et composites MÉCANIQUE • Frottement, usure et lubrification • Fonctions et composants mécaniques • Travail des matériaux – Assemblage • Machines hydrauliques, aérodynamiques et thermiques • Fabrication additive – Impression 3D ENVIRONNEMENT – SÉCURITÉ • Sécurité et gestion des risques • Environnement • Génie écologique • Technologies de l’eau • Bruit et vibrations • Métier : Responsable risque chimique • Métier : Responsable environnement ÉNERGIES • Hydrogène • Ressources énergétiques et stockage • Froid industriel • Physique énergétique • Thermique industrielle • Génie nucléaire • Conversion de l’énergie électrique • Réseaux électriques et applications GÉNIE INDUSTRIEL • Industrie du futur • Management industriel • Conception et production • Logistique • Métier : Responsable qualité • Emballages • Maintenance • Traçabilité • Métier : Responsable bureau d’étude / conception ÉLECTRONIQUE – PHOTONIQUE • Électronique • Technologies radars et applications • Optique – Photonique TECHNOLOGIES DE L’INFORMATION • Sécurité des systèmes d’information • Réseaux Télécommunications • Le traitement du signal et ses applications • Technologies logicielles – Architectures des systèmes • Sécurité des systèmes d’information AUTOMATIQUE – ROBOTIQUE • Automatique et ingénierie système • Robotique INGÉNIERIE DES TRANSPORTS • Véhicule et mobilité du futur • Systèmes aéronautiques et spatiaux • Systèmes ferroviaires • Transport fluvial et maritime MESURES – ANALYSES • Instrumentation et méthodes de mesure • Mesures et tests électroniques • Mesures mécaniques et dimensionnelles • Qualité et sécurité au laboratoire • Mesures physiques • Techniques d’analyse • Contrôle non destructif PROCÉDÉS CHIMIE – BIO – AGRO • Formulation • Bioprocédés et bioproductions • Chimie verte • Opérations unitaires. Génie de la réaction chimique • Agroalimentaire SCIENCES FONDAMENTALES • Mathématiques • Physique Chimie • Constantes physico-chimiques • Caractérisation et propriétés de la matière BIOMÉDICAL – PHARMA • Technologies biomédicales • Médicaments et produits pharmaceutiques CONSTRUCTION ET TRAVAUX PUBLICS • Droit et organisation générale de la construction • La construction responsable • Les superstructures du bâtiment • Le second œuvre et l’équipement du bâtiment • Vieillissement, pathologies et réhabilitation du bâtiment • Travaux publics et infrastructures • Mécanique des sols et géotechnique • Préparer la construction • L’enveloppe du bâtiment • Le second œuvre et les lots techniques www.techniques-ingenieur.fr CONTACT : Tél. : + 33 (0)1 53 35 20 20 - Fax : +33 (0)1 53 26 79 18 - E-mail : [email protected] Powered by TCPDF (www.tcpdf.org)