Localisation Durable pour la Robotique en Environnement Extérieur

par Hugo Germain

Projet de thèse en Informatique

Sous la direction de Vincent Lepetit.

Thèses en préparation à Bordeaux , dans le cadre de Mathématiques et Informatique , en partenariat avec LaBRI - Laboratoire Bordelais de Recherche en Informatique (laboratoire) et de Images et Son (equipe de recherche) depuis le 13-04-2018 .


  • Résumé

    Avec l'arrivée des systèmes autonomes d'extérieur, des nouveaux challenges scientifiques émergent. En effet, ces systèmes doivent se localiser dans leur environnement à l'aide de divers capteurs (caméra, Lidar, odométrie, etc.). Grâce à leur prix compétitif et leur grande disponibilité, les caméras deviennent des choix privilégiés pour ces types de robots. En pratique, pour accomplir cette tâche de localisation, le robot doit d'abord construire une carte de son environnement (étape de cartographie). Dans un second temps, le robot doit se positionner dans cette carte (étape de localisation). Cette étape de localisation est particulièrement challengeante dans des environnements dynamiques - c'est à dire lorsque l'environnement évolue avec le temps - puisque l'information contenue dans la carte et celle observée par le robot peuvent être radicalement différente. Le but de cette thèse et donc de développer une représentation abstraite de l'image qui peut être exploitée pour une localisation durable, en prenant en compte la présence de changements cycliques dans l'image. Le point de départ de notre approche est qu'au lieu de chercher une représentation robuste à ces changements, on cherche à avoir une représentation covariante avec ces changements. On estime en effet que cette approche rendra le système plus fiable. Par exemple, au lieu de chercher une représentation identique pour deux images du même lieu prises à des saisons différentes, on assouplie la contrainte de similitude des deux représentations; la transformation entre ces deux représentations doit néanmoins être prévisible. De plus, on souhaite être capable de calculer le mouvement de la caméra entre deux images, étant donné leurs représentations respectives. Cela nous permettra d'estimer la pose de la caméra pour une image donnée, en utilisant une base de donnée de représentations calculée pour des images dont la pose est connue.

  • Titre traduit

    Life-Long Localization for Outdoor Robotics


  • Résumé

    With the coming of outdoor autonomous systems, new scientific challenges are popping up. In particular, such systems require to localize themselves in their environment based on their different sensors (camera, lidar, wheel odometry, etc.). Especially, due to their attractive price and large availability, the camera sensor is becoming a first choice for this type of robots. In practice, to achieve this localization task, the robot needs first to be able to automatically build a map of its environment, a step which is called mapping or map building. Then, the robot has to localize itself using this map. This localization step is particularly challenging in dynamic environments - that is to say when the environment is changing over time - since the information stored in the map and the one the robot then observes can then be drastically different. The goal of this project is therefore to develop an abstract image representation that can be exploited for lifelong localization, by taking into account the presence of cyclic changes. The starting point of our approach is that, instead of looking for a representation robust to such changes, we want this representation to be covariant with these changes, as we believe this will make our approach more reliable. For example, instead of looking for a representation that is the same for two images taken from the same location but one in winter and one in summer, we relax the need for the representations of the images to be identical; the transformation between the two representations should however be predictable. Moreover, we would like to be able to compute the camera motion between two images, given the representations for these two images. This will let us estimate the camera pose for a given image, by using a database of representations computed for images for which the camera pose is known.