Apprentissage de représentations sensori-motrices pour la reconnaissance d'objet en robotique

par Nicolas Do Huu

Thèse de doctorat en Intelligence artificielle

Sous la direction de Raja Chatila.

Soutenue en 2007

à Toulouse 3 .


  • Résumé

    Depuis plusieurs années, la robotique mobile tente de s'extraire de l'espace amniotique des laboratoires de recherche afin d'explorer l'univers imprévisible, voire hostile, de nos lieux de vie, de travail, pour nous servir ou nous divertir. Or, les méthodes classiques de l'intelligence artificielle nécessitent des modèles du robot, de ses actions et de ses perceptions, conçus a priori. Elles sont donc peu adaptées à l'inattendu et à la nouveauté. D'autre part, les systèmes d'apprentissage artificiel, souvent d'inspiration biologique, semblent à présent en voie de fournir les capacités d'adaptation manquantes à ces premières. Nous envisageons dans cette thèse l'apprentissage comme un mécanisme central de l'architecture robotique. Celle-ci peut être représentée sous les traits d'une boucle sensori-motrice où actions et perceptions se rejoignent au sein d'une structure associative. L'apprentissage permet l'acquisition de connaissances nouvelles sur l'environnement mais il intervient également dans la modélisation des actions du robot : en associant des combinaisons de consignes simples sur les moteurs, et en mémorisant les effets de ces actions sur l'environnement ou sur le robot lui-même. Cette forme d'apprentissage a pour support un réseau de neurones permettant un apprentissage en ligne non supervisé. Cette architecture permet également d'exprimer les motivations et les objectifs du robot par le biais d'un second système d'apprentissage en associant une valeur de récompense aux représentations des actions ou des perceptions, par un apprentissage par renforcement. C'est donc l'utilité de chaque action, qui permettra finalement à un processus décisionnel d'avoir lieu.

  • Titre traduit

    Learning sensori-motor representations for robotic object recognition


  • Résumé

    For several years now, mobile robotic is trying to escape from the amniotic space of research laboratories to explore the unpredictable and even hostile world of our places of living and working, to serve and entertain us. However, conventional logical and symbolic methods of Artificial Intelligence require models of the robot, its actions and perceptions, which must be designed a priori. They are therefore ill-suited towards the unexpected and newness. On the other hand, artificial learning systems, often inspired by biological ones, seem to be on track to provide these first approaches missing ability to adapt. In this thesis, we are considering learning as a central mechanism of the robotic architecture. This architecture can be represented in the face of a sensori-motor loop where actions and perceptions come together in an associative structure. In this architecture, learning allows the acquisition of new knowledge on the environment but is also involved in the modeling of the robot's actions: in a direct manner, by involving combinations of simple instructions on engines, and in an indirect manner, by remembering the effects of these actions on the environment or on the robot itself. In the studied architecture, this form of learning is supported by a pulsed neuron network with unsupervised learning. The architecture we are studying can also express the motivations and goals of the robot through a second learning mecanism, by associating reward values with actions or perceptions by means of reinforcement learning. Thus, the usefulness of each action, their expected reward, are finally exploited by the decision-making process.

Consulter en bibliothèque

La version de soutenance existe sous forme papier

Informations

  • Détails : 1 vol. (128 p.)
  • Annexes : Bibliogr. p. 117-122

Où se trouve cette thèse\u00a0?