Thèse soutenue

Agents autotéliques linguistiques ouverts avec apprentissage par renforcement profond et modèles de langage

FR  |  
EN
Auteur / Autrice : Laetitia Teodorescu
Direction : Pierre-Yves OudeyerKatja Hofmann
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance le 20/11/2023
Etablissement(s) : Bordeaux
Ecole(s) doctorale(s) : École doctorale Mathématiques et informatique (Talence, Gironde ; 1991-....)
Partenaire(s) de recherche : Laboratoire : Institut national de recherche en informatique et en automatique (France). Centre de recherche Inria de l'université de Bordeaux (Bordeaux)
Jury : Président / Présidente : Daniel Polani
Examinateurs / Examinatrices : Laura Schulz, Roberta Raileanu, Claire Gardent
Rapporteurs / Rapporteuses : Daniel Polani, Todd Gureckis

Résumé

FR  |  
EN

L'IA a fait d'immenses progrès au cours des dix dernières années, grâce à la disponibilité croissante des calculs et des données, et à l'invention de paradigmes algorithmiques flexibles permettant d’en tirer parti : apprentissage automatique, réseaux neuronaux, apprentissage par renforcement profond et apprentissage auto-supervisé à grande échelle. Cependant, les systèmes d'IA actuels ne disposent toujours pas de l'une des motivations fondamentales de l'être humain : la motivation d'inventer ses propres problèmes et d'apprendre en tentant de les résoudre. Cet élan de curiosité créative est au centre des jeux des enfants, des inventions des scientifiques, de l'exploration de formes nouvelles par les artistes, et sous-tend une grande partie du progrès culturel de l'humanité. Dans cette thèse, nous utilisons le cadre des agents autotéliques, des agents qui construisent un répertoire de compétences en fixant leurs propres objectifs et en apprenant à les atteindre, pour faire de premiers pas vers des systèmes d'IA véritablement ouverts. Nous défendons le langage comme support pour l'imagination créative des buts, et comme moyen d'accéder facilement à un comportement ouvert, ainsi qu'un domaine où les objectifs de langage sont faciles à ancrer et où nous pouvons nous appuyer sur des modèles pré-entraînés pour construire des agents capables sans partir de zéro. Nous présentons plusieurs contributions empiriques à cet effet, entre autres : l'étude d'agents linguistiques autotéliques dans l'environnement textuel complexe de ScienceWorld montrant l'impact de l'échantillonnage d'objectifs de difficulté intermédiaire et d'un retour social approprié ; une démonstration de comment utiliser de grands modèles de langage pour l'invention créative de répertoire de buts ouverts avec LMA3; la recherche d’une diversité de puzzles de programmation avec ACES, et une perspective avec l'implémentation du cadre autotélique comme un jeu multi=agent avec Codeplay. Nous terminons le manuscrit par une discussion sur nos résultats qui débouchent sur un plan d’attaque pour de futures avancées dans le domaine des agents linguistiques autotéliques par une discussion sur la façon dont ce cadre pourrait être poussé à construire des systèmes d'IA véritablement créatifs et ouverts.