Thèse soutenue

Vers l'apprentissage adaptatif avec des représentations invariantes
FR  |  
EN
Accès à la thèse
Auteur / Autrice : Victor Bouvier
Direction : Céline HudelotPhilippe Véry
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance le 13/12/2021
Etablissement(s) : université Paris-Saclay
Ecole(s) doctorale(s) : École doctorale INTERFACES : approches interdisciplinaires, fondements, applications et innovation
Partenaire(s) de recherche : Laboratoire : Mathématiques et informatique pour la complexité et les systèmes (Gif-sur-Yvette, Essonne ; 2006-....)
référent : CentraleSupélec (2015-....)
graduate school : Université Paris-Saclay. Graduate School Sciences de l'ingénierie et des systèmes (2020-....)
Jury : Président / Présidente : Juan Pablo Piantanida
Examinateurs / Examinatrices : Amaury Habrard, José Hernández-Orallo, Élisa Fromont, Aurélien Bellet
Rapporteurs / Rapporteuses : Amaury Habrard, José Hernández-Orallo

Résumé

FR  |  
EN

Bien que l’apprentissage à partir de données (apprentissage automatique) ait considérablement amélioré les systèmes d’Intelligence Artificielle, ces algorithmes sont sensibles aux changements de distribution des données, une situation omniprésente dans l’industrie. L’adaptation des modèles d’apprentissage automatique a fait l’objet de recherches fructueuses, avec une ligne d’étude influente qui apprend des représentations invariantes, c’est-à-dire insensibles aux changements de distributions dans les données. Cette thèse montre que l’apprentissage de représentations invariantes expose au risque de détruire leur adaptabilité, une quantité que nous ne pouvons malheureusement pas contrôler. Nous proposons une analyse théorique introduisant un nouveau terme d’erreur, appelé erreur de réduction de classe d’hypothèse, qui capture l’adaptabilité d’une représentation. Deuxièmement, cette thèse unifie deux domaines de recherche sur l’adaptation, l’échantillonnage d’importance et les représentations invariantes, dans un même cadre théorique. En particulier, nous montrons la nécessité d’un biais inductif pour l’apprentissage adaptatif, replaçant l’expertise humaine au centre de l’apprentissage automatique. Enfin, nous remettons en question une hypothèse fondamentale lors de l’apprentissage de représentations invariantes : l’accès à un grand échantillon de données non étiquetées de la nouvelle distribution. En effet, cette hypothèse est rarement rencontrée en pratique, où l’on souhaiterait idéalement s’adapter avec quelques exemples. Cette thèse contribue à ce nouveau problème en le formalisant et en fournissant à la communauté une base de code pour une recherche reproductible. De plus, nous proposons une référence solide basée sur du Transport Optimal pour cette tâche.