Couplage vision omnidirectionnelle et télémétrie laser pour la navigation en robotique

par Christopher Mei

Thèse de doctorat en Informatique, temps réel, robotique et automatique

Sous la direction de Patrick Rives.

Soutenue en 2007

à Paris, ENMP .


  • Résumé

    Estimer le mouvement d'un robot et construire en même temps une représentation de l'environnement (problème SLAM : Simultaneous Localisation And Mapping) est souvent considéré comme un problème essentiel pour développer des robots pleinement autonomes qui ne nécessitent pas de connaissances a priori de l'environnement pour réaliser leurs tâches. L'évolution du SLAM est très liée aux capteurs utilisés. Les sonars couplée avec l'odométrie sont souvent présentés comme les premiers capteurs ayant fourni des résultats convaincants. Depuis, les lasers 2D ont souvent remplacés ces capteurs pour des raisons de précision et de rapport signal/bruit. Néanmoins les lasers 2D permettent uniquement d'estimer des mouvements planaires et ne donnent pas des informations perceptuelles suffisantes pour identifier de manière fiable des régions précédemment explorées. Ces observations nous ont amenés à explorer à travers cette thèse comment combiner un capteur omnidirectionnel avec un télémètre laser pour effectuer la localisation et cartographie simultanée dans des environnements complexes et de grandes tailles. Les contributions de cette thèse concernent l'étalonnage des capteurs centraux catadioptriques (avec le développement d'un logiciel opensource disponible sur le site internet de l'auteur) et la recherche de la position relative entre un capteur omnidirectionnel et un télémètre laser. Des approches efficaces pour estimer le mouvement 3D du capteur en utilisant des droites et des plans sont détaillées. Enfin deux méthodes sont proposées combinant laser et vision pour effectuer du SLAM planaire mais aussi pour estimer la position 3D du robot ainsi que la structure de l'environnement.

  • Titre traduit

    Laser-augmented omnidirectionnal vision for 3D localisation and mapping


  • Résumé

    The problem of estimating the motion of a robot and simultaneously building a representation of the environment (known as SLAM: Simultaneous Localisation And Mapping) is often considered as an essential topic of research to build fully autonomous systems that do not require any prior knowledge of the environment to fulfill their tasks. The evolution of SLAM is closely linked to the sensors used. Sonars with odometry are often presented as the first sensors having led to convincing results. Since then, 2D laser range finders have often replaced sonars when possible because of the higher precision and better signal to noise ratio. However 2D lasers alone limit SLAM to planar motion estimation and do not provide sufficiently rich information to reliably identify previously explored regions. These observations have led us to explore throughout this thesis how to combine an omnidirectional camera with a laser range finder to help solve some of the challenges of SLAM in largescale complex environments. The contributions of this thesis concern a method to calibrate central catadioptric cameras (with the development of an opensource toolbox available on the author's website) and find the relative position between an omnidirectional sensor and a laser range finder. How to represent lines and planes for motion estimation is also studied with the use of Lie algebras to provide a minimal parameterisation. Finally we will detail how laser and vision can be combined for planar SLAM and 3D structure from motion.

Consulter en bibliothèque

La version de soutenance existe sous forme papier

Informations

  • Détails : 1 vol. (236 p.)
  • Annexes : Bibliographie 195 réf.

Où se trouve cette thèse ?

  • Bibliothèque :
  • Disponible pour le PEB
  • Cote : EMP 160.008 CCL.TH.1229
  • Bibliothèque :
  • Disponible pour le PEB
  • Cote : EMP 160.009 CCL.TH.1229
Voir dans le Sudoc, catalogue collectif des bibliothèques de l'enseignement supérieur et de la recherche.