Thèse soutenue

Modèles et algorithmes d’apprentissage profond pour de la donnée séquentielle : applications aux modèles de langage et à la quantification d’incertitude

FR  |  
EN
Auteur / Autrice : Alice Martin
Direction : Sylvain Le Corff
Type : Thèse de doctorat
Discipline(s) : Mathématiques appliquées
Date : Soutenance le 14/06/2022
Etablissement(s) : Institut polytechnique de Paris
Ecole(s) doctorale(s) : École doctorale de mathématiques Hadamard (Orsay, Essonne ; 2015-....)
Partenaire(s) de recherche : Etablissement opérateur d'inscription : Télécom SudParis (France)
Laboratoire : Institut polytechnique de Paris (2019-....) - Communications, Images et Traitement de l'Information / CITI - Traitement de l'Information Pour Images et Communications / TIPIC-SAMOVAR
Jury : Président / Présidente : François Desbouvries
Examinateurs / Examinatrices : Pierre Pudlo, François Septier, Laure Soulier, Olivier Pietquin
Rapporteurs / Rapporteuses : Pierre Pudlo, François Septier

Résumé

FR  |  
EN

Dans ce manuscrit de thèse, nous développons de nouveaux algorithmes et modèles pour résoudre les problèmes d'apprentissage profond sur de la donnée séquentielle, en partant des problématiques posées par l'apprentissage des modèles de langage basés sur des réseaux de neurones. Un premier axe de recherche développe de nouveaux modèles génératifs profonds basés sur des méthodes de Monte Carlo Séquentielles (SMC), qui permettent de mieux modéliser la diversité du langage, ou de mieux quantifier l'incertitude pour des problèmes de régression séquentiels. Un deuxième axe de recherche vise à faciliter l'utilisation de techniques de SMC dans le cadre de l'apprentissage profond, en développant un nouvel algorithme de lissage à coût computationnel largement réduit, et qui s'applique à un scope plus large de modèles à espace d'états, notamment aux modèles génératifs profonds. Finalement, un troisième axe de recherche propose le premier algorithme d'apprentissage par renforcement permettant d'apprendre des modèles de langage conditionnels "ex-nihilo" (i.e sans jeu de données supervisé), basé sur un mécanisme de troncation de l'espace d'actions par un modèle de langage pré-entrainé.