Thèse soutenue

Comment Dresser Votre Robot - Nouveaux Environnements de Formation Robotique et Nouvelles Méthodes de Transfert de Stratégies du Simulateur au Vrai Robot.

FR  |  
EN
Auteur / Autrice : Florian Golemo
Direction : Pierre-Yves OudeyerAaron C. Courville
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance le 19/12/2018
Etablissement(s) : Bordeaux
Ecole(s) doctorale(s) : École doctorale de mathématiques et informatique (Talence, Gironde ; 1991-....)
Partenaire(s) de recherche : Equipe de recherche : FLOWERS
Laboratoire : Institut national de recherche en informatique et en automatique (France). Centre de recherche Inria de l'université de Bordeaux (Bordeaux)
Jury : Président / Présidente : Vincent Lepetit
Examinateurs / Examinatrices : Aaron C. Courville, Vincent Lepetit, Stéphane Doncieux, Alain Dutech, Vincent Padois
Rapporteurs / Rapporteuses : Stéphane Doncieux, Alain Dutech

Mots clés

FR  |  
EN

Résumé

FR  |  
EN

Les robots sont l’avenir. Mais comment pouvons-nous leur apprendre de nouvelles compétences utiles? Ce travail couvre une variété de sujets, ayant tous pour but commun de faciliter l’entraînement des robots. La première composante principale de cette thèse est notre travail sur le transfert de modélisation sim2real. Lorsqu’une stratégie a été entièrement apprise en simulation, ses performances sont généralement considérablement inférieures à celles du vrai robot. Cela peut être dû à du bruit aléatoire, à des imprécisions ou à des effets non modélisés, tels que des réactions en retour. Nous introduisons une nouvelle technique pour apprendre la différence entre le simulateur et le vrai robot et pour l’utiliser afin de corriger le simulateur. Nous avons constaté que pour plusieurs de nos idées, aucune simulation appropriée n’était disponible. Par conséquent, pour la deuxième partie principale de la thèse, nous avons créé un ensemble de nouvelles simulations robotiques et de nouveaux environnements de test. Nous fournissons (1) plusieurs nouvelles simulations pour des robots existants, ainsi que des variantes d’environnements existants, qui permettent un ajustement rapide de la dynamique du robot. Nous avons également co-créé (2) le défi AIDO de Duckietown, qui est un concours de robotique en direct à grande échelle pour les conférences NIPS 2018 et ICRA 2019. Pour ce défi, nous avons créé l’infrastructure de simulation, qui permet aux participants d’entraîner leurs robots en simulation avec ou sans ROS. Il leur permet également d’évaluer automatiquement leurs soumissions sur des robots en direct dans un ”Robotarium”. Afin d’évaluer la compréhension et l’acquisition continue de langage par un robot, nous avons développé le (3) Test d’Interaction Multimodal Homme-Robot (MHRI). Cet ensemble de tests contient plusieurs heures d’enregistrements annotés de différentes personnes montrant et pointant des objets ménagers courants, le tout du point de vue d’un robot. La nouveauté et la difficulté de cette tâche découlent du bruit réaliste inclus dans le jeu de données: la plupart des personnes n’était pas de langue maternelle anglaise, certains objets étaient obstrués et personne n’avait reçu d’instructions détaillées sur la manière de communiquer avec le robot, entraînant des interactions très naturelles. Nous avons constaté un manque flagrant de simulations d’environnements domestiques réalistes, avec annotations sémantiques, qui permettraient à un agent d’acquérir les compétences nécessaires pour maîtriser une telle tâche. C’est pourquoi nous avons créé (4) HoME, une plate-forme de formation de robots domestiques à la compréhension du langage. L’environnement a été créé en encapsulant la base de données existante SUNCG 3D, composée de maisons, dans un moteur de jeu pour permettre aux agents simulés de parcourir ces dernières. Il intègre un moteur acoustique très détaillé et un moteur sémantique pouvant générer des descriptions d’objets en relation avec d’autres objets, meubles et pièces. La troisième et dernière contribution principale de ce travail prend en considération le fait qu’un robot peut se trouver dans un nouvel environnement non couvert par la simulation. Dans un tel cas, nous fournissons une nouvelle approche qui permet à l’agent de reconstruire une scène 3D à partir d’une seule image 2D en apprenant l’intégration d’objets. Le principal inconvénient de ce travail est qu’il ne prend actuellement pas en charge de manière fiable la reconstruction de couleur et de texture. Nous avons testé cette approche sur une tâche de rotation mentale, courante dans les tests de QI, et avons constaté que notre modèle arrivait nettement mieux à reconnaître et à faire pivoter des objets que plusieurs modèles de référence.