On the role of Actions and Machine Learning in Artificial Agent Perception.

par Hugo Caselles-dupre

Projet de thèse en Informatique, données, IA

Sous la direction de David Filliat.

Thèses en préparation à l'Institut polytechnique de Paris , dans le cadre de École doctorale de l'Institut polytechnique de Paris , en partenariat avec U2IS - Unité d'Informatique et d'Ingénierie des Systèmes  (laboratoire) et de Systèmes Autonomes et Robotique (equipe de recherche) depuis le 03-04-2018 .


  • Résumé

    La Robotique Développementale est un domaine de recherche dans lequel le but est d'implémenter des modèles mathématiques pour qu'un robot puisse apprendre de manière autonome en interagissant avec son environnement. Le robot commence avec une faible connaissance apriori sur son environnement, comment le percevoir, et agir dedans. Néanmoins, par le contrôle de ses commandes moteurs et la réception de signaux sensoriels, il doit modifier son état interne (apprendre des modèles) pour pouvoir résoudre des tâches. Pour pouvoir apprendre à agir dans son environnement, l'agent interagit avec celui-ci en l'explorant et en interagissant avec les différents éléments qui le compose. Une des difficultés de cette approche réside donc dans le choix des algorithmes d'apprentissage utilisés pour apprendre ces modèles. Dans cette thèse, nous suivront l'approche sensori-motrice, qui énonce qu'une façon naturelle d'acquérir de la connaissance sur l'environnement pour l'agent est d'apprendre à prédire comment ses actions vont changer les états sensoriels. Donc, le but scientifique principal consiste à developper les outils nécessaires pour acquérir des modèles de prédictions du flux sensorimoteur pour les robots autonomes, en utilisant l'apprentissage incrémental.

  • Titre traduit

    Du rôle des Actions et de l'Apprentissage Automatique dans la Perception des Agents Artificiels.


  • Résumé

    Developmental Robotics is a field of research concerned with implementing mathematical models for a robot to learn autonomously by interacting with its environment. The robot starts with very limited a priori knowledge about the world, how to perceive it, and how to act in it. However, through the control of its motor commands and the reception of sensory signals, it should modify its internal state (learn models) that is helpful to solve tasks. In order to learn how to act in the world, the agent interacts with its environment by exploring it and interacting with the different elements composing this environment. One of the technical issues in this approach therefore lies in the algorithms used for learning these models. In this PhD we will follow the sensorimotor prediction approach, which states that a natural way of acquiring knowledge about the environment is for the agent to learn to predict how its actions will change its sensory state. Hence, the main scientific goal consists in developing the tools necessary to acquire sensorimotor predictive models for autonomous robots, using incremental learning.