Le robot mobile compagnon : de l'apprentissage interactif vers un modèle d'IHM intuitive.

par Caroline Grand (Lesueur-grand)

Thèse de doctorat en STIC - Cergy

Sous la direction de Philippe Gaussier.

Thèses en préparation à Cergy-Pontoise , dans le cadre de ED SI - Sciences et Ingénierie , en partenariat avec Equipes Traitement de l'Information et Systèmes (laboratoire) depuis le 01-10-2012 .


  • Résumé

    Dans le cadre de cette thèse, nous voulons aborder les problèmes liés à l’apprentissage autonome des différentes tâches sensori-motrices (navigation, préhension) via l’interaction et l’imitation. D’un point de vue théorique, nous aborderons notamment les notions de turn-taking et de partage d’attention lors de l’interaction homme machine ainsi que leur intérêt pour améliorer l’apprentissage. A long terme, nous aimerions que le robot puisse comprendre les intentions de son partenaire. L’utilisation d’une tâche complexe est ici nécessaire pour que le robot soit confronté à des situations d’échecs qui devront introduire des modifications de comportement non seulement de la part du partenaire mais surtout de la part du robot. Pour réussir ce pari, le robot devra être capable d’auto évaluer à la fois son comportement vis à vis de la tâche en cours d’exécution (et d’apprentissage) et son comportement d’interaction avec son partenaire. Nous proposons de travailler sur un « robot mobile compagnon du fantassin » capable, non seulement d’apprendre de manière interactive (avec son compagnon) à naviguer en intérieur et extérieur mais aussi à effectuer des tâches utiles minimales (préhension d’objets). L’utilisation de jeux d’interaction et d’imitation comme moyen d’apprentissage mais surtout de communication permet d’envisager de nouveaux principes d’IHM (Interface Homme-Machine) où l’interaction n’est plus considérée comme une « charge », elle devient au contraire plaisante.

  • Titre traduit

    A companion mobile robot : from interactive learning to intuitive HMI modeling


  • Résumé

    We address the issues related to autonomous learning of different sensory-motor tasks (navigation, grasping) using interaction and imitation. From a theoretical point of view, we will question the concepts of turn-taking and sharing of attention during Human-Robot interaction and their contribution to improve the learning. We would like to make robot able to understand the intentions of his partner. Here, using a complex task is necessary to confront the robot with situations of failure that will introduce behavioral changes not only for the partner but also for the robot. The robot should be able to self assess both its behavior regarding the current task to learn and its interaction behavior with its partner. We propose to work on a 'mobile companion robot' capable not only to learn interactively (with his partner) to navigate but also to perform minimal useful tasks (grasping objects). Using interaction games and imitation as a medium of learning and above all of communication, allows to consider new principles of HMI (Human Machine Interface) where the interaction is no longer considered as a 'charge', it becomes rather pleasant