Auteur / Autrice : | Victor Bouvier |
Direction : | Céline Hudelot, Philippe Véry |
Type : | Thèse de doctorat |
Discipline(s) : | Informatique |
Date : | Soutenance le 13/12/2021 |
Etablissement(s) : | université Paris-Saclay |
Ecole(s) doctorale(s) : | École doctorale INTERFACES : approches interdisciplinaires, fondements, applications et innovation |
Partenaire(s) de recherche : | Laboratoire : Mathématiques et informatique pour la complexité et les systèmes (Gif-sur-Yvette, Essonne ; 2006-....) |
référent : CentraleSupélec (2015-....) | |
graduate school : Université Paris-Saclay. Graduate School Sciences de l'ingénierie et des systèmes (2020-....) | |
Jury : | Président / Présidente : Juan Pablo Piantanida |
Examinateurs / Examinatrices : Amaury Habrard, José Hernández-Orallo, Élisa Fromont, Aurélien Bellet | |
Rapporteurs / Rapporteuses : Amaury Habrard, José Hernández-Orallo |
Mots clés
Résumé
Bien que l’apprentissage à partir de données (apprentissage automatique) ait considérablement amélioré les systèmes d’Intelligence Artificielle, ces algorithmes sont sensibles aux changements de distribution des données, une situation omniprésente dans l’industrie. L’adaptation des modèles d’apprentissage automatique a fait l’objet de recherches fructueuses, avec une ligne d’étude influente qui apprend des représentations invariantes, c’est-à-dire insensibles aux changements de distributions dans les données. Cette thèse montre que l’apprentissage de représentations invariantes expose au risque de détruire leur adaptabilité, une quantité que nous ne pouvons malheureusement pas contrôler. Nous proposons une analyse théorique introduisant un nouveau terme d’erreur, appelé erreur de réduction de classe d’hypothèse, qui capture l’adaptabilité d’une représentation. Deuxièmement, cette thèse unifie deux domaines de recherche sur l’adaptation, l’échantillonnage d’importance et les représentations invariantes, dans un même cadre théorique. En particulier, nous montrons la nécessité d’un biais inductif pour l’apprentissage adaptatif, replaçant l’expertise humaine au centre de l’apprentissage automatique. Enfin, nous remettons en question une hypothèse fondamentale lors de l’apprentissage de représentations invariantes : l’accès à un grand échantillon de données non étiquetées de la nouvelle distribution. En effet, cette hypothèse est rarement rencontrée en pratique, où l’on souhaiterait idéalement s’adapter avec quelques exemples. Cette thèse contribue à ce nouveau problème en le formalisant et en fournissant à la communauté une base de code pour une recherche reproductible. De plus, nous proposons une référence solide basée sur du Transport Optimal pour cette tâche.