Vers un apprentissage efficace des modèles graphiques et des réseaux de neurones avec des techniques variationnelles
FR |
EN
Auteur / Autrice : | Xu Hu |
Direction : | Nikos Komodakis |
Type : | Thèse de doctorat |
Discipline(s) : | Informatique |
Date : | Soutenance le 19/12/2019 |
Etablissement(s) : | Paris Est |
Ecole(s) doctorale(s) : | École doctorale Mathématiques, Sciences et Technologies de l'Information et de la Communication (Champs-sur-Marne, Seine-et-Marne ; 2015-....) |
Partenaire(s) de recherche : | Laboratoire : Laboratoire d'informatique de l'Institut Gaspard Monge (1997-2009) |
Jury : | Président / Présidente : Nathalie Peyrard |
Examinateurs / Examinatrices : Nikos Komodakis, Simon Lacoste-Julien, Matthew B. Blaschko, Guillaume Obozinski, Jakob Verbeek | |
Rapporteurs / Rapporteuses : Simon Lacoste-Julien, Matthew B. Blaschko |
Résumé
FR |
EN
Dans cette thèse, je me concentrerai principalement sur l’inférence variationnelle et les modèles probabilistes. En particulier, je couvrirai plusieurs projets sur lesquels j'ai travaillé pendant ma thèse sur l'amélioration de l'efficacité des systèmes AI / ML avec des techniques variationnelles. La thèse comprend deux parties. Dans la première partie, l’efficacité des modèles probabilistes graphiques est étudiée. Dans la deuxième partie, plusieurs problèmes d’apprentissage des réseaux de neurones profonds sont examinés, qui sont liés à l’efficacité énergétique ou à l’efficacité des échantillons