Thèse soutenue

Apprentissage profond robuste pour la conduite autonome

FR  |  
EN
Auteur / Autrice : Charles Corbière
Direction : Nicolas ThomePatrick Pérez
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance le 16/03/2022
Etablissement(s) : Paris, HESAM
Ecole(s) doctorale(s) : École doctorale Sciences des métiers de l'ingénieur
Partenaire(s) de recherche : Laboratoire : Centre d'études et de recherche en informatique et communications (Paris)
établissement de préparation de la thèse : Conservatoire national des arts et métiers (France ; 1794-....)
Jury : Président / Présidente : Florence d' Alché-Buc
Examinateurs / Examinatrices : Nicolas Thome, Patrick Pérez, Florence d' Alché-Buc, Stéphane Canu, Graham Taylor, Matthieu Cord, Alex KENDALL
Rapporteurs / Rapporteuses : Stéphane Canu, Graham Taylor

Mots clés

FR  |  
EN

Mots clés contrôlés

Résumé

FR  |  
EN

Le véhicule autonome est revenu récemment sur le devant de la scène grâce aux avancées fulgurantes de l’intelligence artificielle. Pourtant, la sécurité reste une préoccupation majeure pour le déploiement de ces systèmes dans des environnements à haut risque. Il a été démontré que les réseaux de neurones actuels peinent à identifier correctement leurs erreurs et fournissent des prédictions sur-confiantes, au lieu de s'abstenir, lorsque exposés à des anomalies. Des progrès sur ces questions sont essentiels pour obtenir la certification des régulateurs mais aussi pour susciter l'enthousiasme des utilisateurs.L'objectif de cette thèse est de développer des outils méthodologiques permettant de fournir des estimations d'incertitudes fiables pour les réseaux de neurones profonds. En particulier, nous visons à améliorer la détection des prédictions erronées et des anomalies lors de l'inférence. Tout d'abord, nous introduisons un nouveau critère pour estimer la confiance d'un modèle dans sa prédiction : la probabilité de la vraie classe (TCP). Nous montrons que TCP offre de meilleures propriétés que les mesures d'incertitudes actuelles pour la prédiction d'erreurs. La vraie classe étant, par essence, inconnue à l'inférence, nous proposons d'apprendre TCP avec un modèle auxiliaire (ConfidNet), introduisant un schéma d'apprentissage spécifique adapté à ce contexte. La qualité de l'approche proposée est validée sur des jeux de données de classification d'images et de segmentation sémantique., démontrant une supériorité par rapport aux méthodes de quantification incertitude utilisées pour la prédiction de d'erreurs.Ensuite, nous étendons notre approche d'apprentissage de confiance à la tâche d'adaptation de domaine. Une stratégie populaire, l'auto-apprentissage, repose sur la sélection de prédictions sur données non étiquetées puis le réentraînement d'un modèle avec ces pseudo-étiquettes. Appelée ConDA, l'adaptation proposée améliore la sélection de pseudo-labels grâce à des meilleures estimations de confiance. Afin de relever le défi de l'adaptation de domaine, nous avons équipé le modèle auxiliaire d'une architecture multi-échelle et complété la fonction de perte par un schéma d'apprentissage contrastif afin de renforcer l'alignement entre les cartes de confiance des domaines source et cible.Enfin, nous considérons la présence d'anomalies et nous attaquons au défi pratique de la détection conjointe des erreurs de classification et des échantillons hors distribution. A cette fin, nous introduisons KLoS, une mesure d'incertitude définie sur le simplexe et basée sur des modèles évidentiels. En conservant l'ensemble des informations de distribution, KLoS capture à la fois l'incertitude due à la confusion de classe et au manque de connaissance du modèle, cette dernière type d'incertitude étant liée aux échantillons hors distribution. En utilisant ici aussi un modèle auxiliaire avec apprentissage de confiance, nous améliorons les performances sur divers ensembles de données de classification d'images.