Fusion de données multi-capteurs pour la perception d'environnement appliquée aux Aides à la Conduite (ADAS) et à la Voiture Autonome

par Louis Guerlin

Projet de thèse en Signal image parole telecoms

Sous la direction de Michèle Rombaut.

Thèses en préparation à Grenoble Alpes , dans le cadre de École doctorale électronique, électrotechnique, automatique, traitement du signal (Grenoble) , en partenariat avec Grenoble Images Parole Signal Automatique (laboratoire) et de Architecture, Géométrie, Perception Images Gestes (AGPIG) (equipe de recherche) depuis le 03-12-2018 .


  • Résumé

    La mobilité de demain s'oriente progressivement vers l'autonomie partielle ou complète des véhicules, et de nombreux efforts sont fournis par les communautés de chercheurs et d'industriels pour que la voiture autonome devienne une réalité. Un des principaux verrous techniques et scientifiques au développement de la voiture autonome est le manque de fiabilité et de robustesse de l'interprétation globale de la scène faite à partir des données envoyées par divers capteurs. Ces systèmes de perception embarqués s'appuient sur divers capteurs hétérogènes (caméra, RADAR, …) pour détecter, localiser et caractériser les usagers et obstacles environnants. En effet, si chaque capteur bénéficie de son propre traitement, il apparaît un manque de cohérence dans l'interprétation de la scène lorsque l'ensemble des capteurs partagent leurs informations. Cette étape de fusion des données plus haut niveau peut être largement améliorée si les traitements proches des capteurs sont adaptés au processus de fusion qui sera en charge de construire la situation temps réelle autour du véhicule. Il existe plusieurs leviers sur lesquels travailler pour améliorer les capacités de perception des systèmes existants : suivre l'évolution des technologies des capteurs afin de les rendre plus fiables et performants, avec un coût compatible avec la production de véhicules en série ; ou bien travailler sur le traitement des données multi-capteurs afin de tirer au mieux parti des synergies entre ces différentes technologies (RADAR, caméra, LIDAR, ultrasons, …) pour améliorer l'interprétation sémantique temps réel de la scène. L'objet de cette thèse porte sur ce second axe : la fusion de données multi-capteurs hétérogènes pour élaborer une scène 3D de proximité suffisamment fiable et précise pour garantir l'autonomie totale du véhicule, et ce, sur tout type d'environnement (villes, routes de campagne et autoroutes).

  • Titre traduit

    Multisensor data fusion for autonomous driving and advanced driver-assistance systems


  • Résumé

    Tomorrow's mobility is heading to partially or fully autonomous vehicles. The industrial and scientific communities are putting a lot of effort in order to bring the concept of autonomous driving to reality. One of the main technical obstacle to the development of autonomous cars is the lack of reliability and robustness of current sensors due to the proprietary algorithms they embed. Indeed, because of them the data fusion relies on pre-processed objects instead of raw data (the points from a LIDAR, the image of a camera, ...): this often leads to incoherent data when the sensors share their information. In order to improve current perception systems, different options can be investigated: closely monitor the evolution of sensors until they reach a high level of performance and reliability while being cost effective, or working on multisensor data fusion of raw data and rely more on the strengths and weaknesses of different technologies (RADAR, LIDAR, camera, ...) to produce an accurate real time estimation of the environment. This PhD will focus on the second option: multisensor data fusion of raw data coming from heterogeneous sources in order to build a 3D scene that best fits the surrounding environment of the vehicle allowing fully autonomous driving in any test scenarios.