• Nenhum resultado encontrado

Chapitre 2 Présentation des techniques utilisées

2.1 Méthodes de télédétection optique

Les techniques de télédétection optique sont bien adaptées à la caractérisation de la cinématique des instabilités gravitaires. Elles permettent la surveillance à distance de sites potentiellement dangereux sans l’intervention d’un opérateur terrain. Ces techniques fournissent une vue 3D d’un objet géologique et peuvent être divisées en plusieurs catégories (Figure 2.2). Dans ce travail, les possibilités de deux techniques de télédétection sont exploitées : le scanner laser à temps de vol (LiDAR) et la photogrammétrie optique.

Figure 2.2 - Classification des principales techniques de télédétection optique. Les techniques utilisées dans ce travail de recherche sont indiquées en rouge (adapté de Vosselman & Maas, 2010).

2.1.1 Scanners laser à temps de vol (LiDAR)

Les scanners laser capturent et enregistrent à l’aide de capteurs actifs l’information géométrique et texturale des surfaces. Ils ont été largement exploités ces dernières années pour la caractérisation détaillée de mouvements de versant rocheux (Rosser et al., 2005 ; Abellan et al., 2006 ; Oppikofer et al., 2008 ; Abellan et al., 2009) et pour le suivi de processus géomorphologiques à cinématique lente (déplacements de quelques centimètres à quelques mètres par année) comme les glaciers (Avian et al., 2009 ; Schwalbe et al., 2008 ; Bauer et al., 2003) et les glissements de terrain (Prokop & Panholzer, 2009 ; Teza et al., 2008). Le nombre croissant d’applications sur les glissements de terrains est principalement dû à la miniaturisation et la maniabilité des lasers, à l’augmentation de la fréquence d’acquisition, de la précision et de la portée (Jaboyedoff et al., 2010).

Le système peut être opérationnel à partir de plateforme fixe terrestre (‘’Terrestrial Laser Scanner ‘‘, TLS) ou mobile comme un véhicule (‘’Vehicle Laser Scanner’’, VLS), un avion ou un hélicoptère (‘’Airborne Laser Scanner’’, ALS) (Figure 2.3). Plusieurs études sont consacrées aux procédures d’acquisitions VLS, ALS (Vosselman & Maas, 2010) et TLS pour des applications environnementales (Buckley et al ., 2008; Vosselman &

Maas, 2010) et pour le cas spécifique d’instabilités gravitaires (Giussani & Scaioni, 2004).

Ce chapitre présente brièvement le principe de la technique en faisant principalement référence à Lichti et al.

(2002) et Vosselman & Mass (2010) pour une description plus exhaustive.

Figure 2.3 - Composants d’un système d’acquisition au scanner laser aéroporté (ALS) (scanner laser Riegl VQ480 héliporté) et terrestre (TLS) (scanner laser terrestre Optech ILRIS-3D, ici sur l’escarpement du glissement-coulée de Super-Sauze) utilisés dans ce travail.

• Principe :

Les scanners laser ou LiDAR (light detection and ranging) basés sur la technique de temps de vol sont les plus répandus dans les applications à moyennes et longues portées (supérieure à 100 m). La technique consiste à balayer une surface par des impulsions électromagnétiques de longueurs d’ondes entre 800 et 1550 nm à très hautes fréquences (entre 2 kHz pour les scanners laser terrestres et 300 kHz pour les scanners laser aéroportés) qui sont réfléchies sur une surface. La distance entre la surface et la source du laser est ensuite calculée en fonction du temps d’aller et retour de l’impulsion connaissant la vitesse de la lumière dans l’air. La séparabilité du signal retour sous forme d’échos répartis dans le temps est une des principales caractéristiques du faisceau laser réfléchi (Figure 2.4). Fréquemment, une partie du laser est réfléchie par la végétation, alors qu’une autre partie atteint le sol pour s’y réfléchir. Trois techniques se distinguent pour détecter le signal retour. La première repose sur la détection du maximum d’amplitude du signal retour, la seconde sur la détection d’un seuil minimal d’énergie du signal retour et finalement la troisième sur la détection d’une fraction constante du maximum d’amplitude (généralement 50%). Deux échos successifs peuvent être identifiés si la distance les séparant est supérieure à la moitié de la longueur de l’impulsion. Par exemple, pour une impulsion de 5 ns, deux objets peuvent être identifiés si la distance les séparant est d’au moins 0.75 m (Vosselman & Maas, 2010). La plupart des systèmes laser aéroportés sont capables de détecter 4 à 5 échos pour chaque impulsion émise, les scanners laser terrestres enregistrent généralement le premier et le dernier écho (Figure 2.5).

Figure 2.4 - Schéma illustrant la divergence du rayon laser et les échos multiples réfléchis sur de la végétation en signal discret et en train d’onde complet (adapté de Vosselman & Maas, 2010).

Figure 2.5 - Différences de distance entre le premier et le dernier écho enregistrés par scanner laser terrestre (ici sur le pied du glissement-coulée de Super-Sauze en octobre 2008). Les premières réflexions sur la végétation sont particulièrement bien mises en évidence.

Lorsque cette technique est opérationnelle à partir d’une plateforme mobile, le laser est couplé à un système de positionnement composé d’un récepteur GPS et d’une centrale inertielle (INS) permettant de connaître à tout instant l’orientation du laser dans l’espace (Joinville et al., 2002) (Figure 2.3 A). Comme la fréquence d’acquisition du GPS et l’INS (environ 5 Hz et 100 Hz) est habituellement inférieure à la fréquence d’acquisition du système laser (jusqu’à 300 kHz), la position des points au sol est interpolée à chaque impulsion. La fréquence d’acquisition combinée avec la vitesse de vol permet de calculer une densité de points au sol variant généralement entre 0.1 et 10 points par m2. La précision du levé ALS dépend principalement de la couverture satellitaire GPS, de la précision de la centrale inertielle et des qualités métrologiques du laser, les effets atmosphériques étant souvent négligés dans les levés à courtes et moyennes portées (environ 5 à 500 m). Les effets atmosphériques sont principalement dus aux variations de température, de pression et d’humidité dans le champ de vue du laser. Une différence de température de l’air de 10° peut induire une erreur de 1 mm par distance de 100 m (Vosselman & Mass, 2010). La précision globale 3D se situe généralement entre 5 et 15 cm.

Les scanners laser terrestres peuvent fournir rapidement des densités de points au sol jusqu’à 200 points par m2. Malgré une couverture de points moins homogène que les levés ALS due aux prises de vue oblique, leur précision est meilleure (environ 1 à 3 cm).

La diffraction du faisceau est un facteur limitant la résolution spatiale de la mesure. L’intersection du faisceau avec un objet produit une emprunte lumineuse dont le diamètre dépend de la longueur d’onde du laser, de son rayon minimal, du milieu traversé, de l’angle d’incidence et des caractéristiques du matériau. Par exemple, à une distance de 1000 m, un laser d’une longueur d’onde de 532 nm produit une emprunte lumineuse au sol d’environ 30 cm de diamètre. La taille de l’emprunte lumineuse est un paramètre important dans le choix de la résolution spatiale lors de l’acquisition. Lichti & Jamtsho (2006) ont déterminé une résolution optimale d’acquisition correspondant à une distance au sol séparant deux empruntes lumineuses équivalente à 86% du diamètre de l’emprunte au sol. Toutefois, cette condition est très difficile à assurer sur le terrain à cause des irrégularités de surface. Le temps d’acquisition et la taille des fichiers de sortie sont aussi des paramètres à considérer lors de l’acquisition. La précision de la mesure se dégrade proportionnellement à la distance d’acquisition combinée à la divergence, la puissance du faisceau laser et la réflectivité du matériau (dépendant de la nature et de la qualité de surface du matériau) (Skaloud & Lichti, 2006). La réflectivité du matériau détermine non seulement la précision de la mesure, mais aussi la portée maximale du laser. Elle influence directement l’intensité du signal retour qui est une seconde information enregistrée et codée en 8 ou 16 bits par les scanners laser. Pour des surfaces sombres, une majeure partie de l’énergie est absorbée par le matériau. Le rapport signal sur bruit de l’écho est par conséquent faible. En revanche, si la réflectivité de la surface est trop importante, l’énergie réfléchie peut dépasser la capacité maximale de détection du capteur (saturation). Il se produit une trainée de points devant ou derrière la surface de l’objet scanné, la taille de l’objet peut apparaitre également plus importante (‘’blooming effet’’).

• Traitement des données :

Le traitement des données ALS consiste à calculer la position de chaque point dans un système de coordonnées local à partir des données GPS de la station de base, du système de navigation (GPS embarqué, INS) et des données du scanner (amplitude, paramètre du scanner, nombre d’échos) (Figure 2.6). Les positions sont ensuite contrôlées grâce à des points de contrôle disposés au sol avant l’acquisition, les lignes de vol sont aussi ajustées de façon à avoir une superposition optimale entre les bandes d’acquisition. Les points sont ensuite classés et filtrés de façon à distinguer les points réfléchis au sol, les points réfléchis sur de la végétation et les artefacts. Il en résulte un produit quantitatif 3D à très haute résolution appelé ‘’nuage de points’’.

Le traitement des données TLS est légèrement différent du traitement des données ALS. La végétation est généralement filtrée des nuages de points avant la procédure d’alignement des acquisitions dans un système de coordonnées commun (Figure 2.6). Les nuages de points assemblés sont ensuite géoréférencés à l’aide de points de contrôle au sol ou à l’aide de nuages de points déjà géoréférencés. Cette tâche est très spécifique au site d’étude et au problème donné. Une méthode adaptée aux objectifs de ce travail de recherche (analyses cinématiques et morpho-structurales) a été développée pour le traitement des données TLS et sera présentée plus en détail au chapitre § 5.2.1.

Figure 2.6 - Chaîne de traitement classique des données ALS et TLS (adapté de Vosselman & Maas, 2010 ; Oppikofer, 2009).

2.1.2 Photogrammétrie optique

La photogrammétrie est une technique largement utilisée pour la cartographie et la production de Modèles Numériques de Terrain (MNT) permettant l’établissement de bilans sédimentaires (Bitelli et al., 2004 ; Pesci et al., 2004 ; Cardenal et al., 2008). Pour la caractérisation de la cinématique de processus naturels, la majorité des analyses est réalisée à partir de photographies aériennes (e.g. IGN) et satellitaires (e.g. SPOT, Quickbird, OrbView, EROS) (Casson et al., 2003 ; Delacourt et al., 2004 ; LePrince et al., 2008 ; Debella-Gilo & Kääb, 2010), l’utilisation de la photogrammétrie terrestre pour ce type d’application restant marginale (Fallourd et al., 2010 ; Maas et al., 2008). Cette section présente brièvement les principes de la photogrammétrie. Une description plus exhaustive est présentée par Kraus & Waldhaüsel (1994).

• Principe :

La photogrammétrie est une technique dite à capteur passif regroupant l’ensemble des mesures réalisées à partir d’images optiques. Elle permet de reconstituer la forme, les dimensions et la position d’un objet (Jensen, 2000). Le principe de la photogrammétrie classique consiste à acquérir un ou plusieurs couples photographiques d’une même scène sous des angles distincts (stéréoscopie) recouvrant un objet. En fonction des prises de vues, l’objet prend un aspect différent en grandeur et en direction sur chaque image. Le lien entre la géométrie de l’objet dans l’image et sa vraie géométrie 3D est effectué par traitement photogrammétrique.

Comme pour la technique LiDAR, le système de photogrammétrie peut être embarqué à bord de plateformes aérienne ou terrestre. Dans le cas de prise de vues aériennes, le système d’acquisition est couplé à un GPS différentiel et à une centrale inertielle. Pour les photographies terrestres, la prise de vue oblique influe sur la

résolution au sol du capteur. La résolution varie dans l’image et les détails seront moins résolus à l’arrière plan qu’à l’avant plan. Cette situation est donc radicalement différente des images aérienne où la résolution est pratiquement uniforme dans l’image. Par conséquent, l’imprécision dans le calcul de la profondeur est principalement verticale alors qu’en photogrammétrie terrestre, elle est à la fois altimétrique et planimétrique.

• Traitement des données :

Le traitement des données a pour objectif d’orthorectifier les images et de dériver des Modèles Numériques de Terrain (MNT) à l’aide de couples stéréoscopiques d’images. Deux méthodes principales d’orthorectification existent (Toutin, 2004) : la méthode non paramétrique et la méthode paramétrique.

La méthode non paramétrique nécessite uniquement des points d’appui au sol identifiables dans les images et dont les coordonnées XY dans le système de coordonnées locales sont connues. Les distorsions dues aux imperfections de la lentille sont généralement corrigées avant la procédure d’orthorectification à l’aide d’une fonction polynomiale du troisième degré (Niethammer et al., 2009). L’orthorectification des images s’effectue ensuite par rééchantillonnage et interpolation des images à l’aide de différentes fonctions (fonctions polynomiales, transformations projectives planaires, triangulation) en minimisant les écarts entre les coordonnées XY des points d’appuis mesurés et leurs coordonnées recalculées. Cette méthode a l’avantage de s’affranchir des paramètres d’orientation interne et externe de l’appareil photographique. Elle n’est cependant pas adaptée aux images affectées par d’importants effets de distorsions (e.g. topographie, vues obliques) (Niethammer et al., 2011).

La méthode paramétrique, plus précise, se base sur un modèle de projection de faisceaux lumineux dans le plan image dépendant des paramètres d’orientation interne et externe de l’appareil photographique. L’étape principale consiste à estimer les paramètres de calage de l’appareil photographique (orientation interne et externe) en minimisant une fonction de coût caractérisant les erreurs entre des points d’appuis localisés à la fois dans les images et dans le système de coordonnées locales (XYZ). Le modèle de projection est basé sur les équations de colinéarité (Kraus & Waldhaüsel, 1994). Ces équations sont fondées sur le principe que chaque point est projeté suivant une trajectoire rectiligne passant par le centre de projection (position de l’appareil photographique). Elles seront développées en détail dans le chapitre § 5.2.2. Le fait de disposer d’un ou de plusieurs couples stéréoscopiques permet à partir des faisceaux (droites passant par un point image et le sommet de prise de vue) d’accéder à la troisième dimension si le nombre de points homologues dans un couple d’images est suffisant (Figure 2.7). L’automatisation de ces traitements (i.e. recherche de points homologues à l’aide d’une fonction de corrélation croisée normalisée) permet l’élaboration de MNT par stéréorestitution (Casson et al., 2005). Les images sont ensuite rééchantillonnées et interpolées dans la géométrie du MNT.

Toutefois, il n’est pas possible de déterminer la position d’un point dans l’espace à partir d’une seule prise de vue sans information spatiale 3D complémentaire (Figure 2.7). Ce type de configuration d’acquisition est spécifique au site d’étude de ce travail (glissement-coulée de Super-Sauze). C’est pourquoi une méthode adaptée à l’objectif de ce travail de recherche (analyse cinématique) a été développée. Elle sera présentée en détail au chapitre § 5.2.2.

Figure 2.7 – Intersection de trois rayons permettant de déterminer la position 3D d’un point dans l’espace.

La fonction de corrélation croisée normalisée peut être non seulement utilisée pour la recherche automatique des points homologues dans un couple d’images stéréoscopiques mais aussi pour déterminer les déplacements entre deux images prises à des temps différents (Casson et al., 2005). La fonction de corrélation retourne le coefficient de corrélation R entre une fenêtre d1 appartenant à une image de référence et une fenêtre d2 de même dimension Nu et Nv parcourant une seconde image (Figure 2.8). La position où, dans la seconde image, le coefficient de corrélation est maximal a la plus forte probabilité de correspondre à la position du point homologue recherché. A deux dimensions, l’indice de corrélation croisée discrète et normalisée est calculé à l’aide de l’équation suivante (Hild et al., 1999) :

∑ ∑

∑ ∑

∑ ∑

∆ +

∆ +

∆ +

∆ +

=

u v

u v

u v

N N

N N

N N

d d

d v v u u d

v u

d v v u u d

v u v

u R

2 2 2

1 1

2 1

,

) ) ,

( ( )

) , ( (

) ) ,

( )(

) , ( ( )

, (

1 2

2 2 1

d d

d d

(∆u, ∆v) sont les décalages (i.e. déplacements) recherchés de deux points homologues dans les fenêtres d1 et d2

de dimensions Nu et Nv selon axes u et v.

d

1et

d

2correspondent à la moyenne spatiale de d1 et d2

respectivement (Figure 2.8).

Figure 2.8 – Principe de la corrélation d’images.