Thèse soutenue

Régression linéaire et apprentissage : contributions aux méthodes de régularisation et d’agrégation
FR  |  
EN
Accès à la thèse
Auteur / Autrice : Raphaël Deswarte
Direction : Guillaume LecuéGilles Stoltz
Type : Thèse de doctorat
Discipline(s) : Mathématiques appliquées
Date : Soutenance le 27/09/2018
Etablissement(s) : Université Paris-Saclay (ComUE)
Ecole(s) doctorale(s) : École doctorale de mathématiques Hadamard (Orsay, Essonne ; 2015-....)
Partenaire(s) de recherche : établissement opérateur d'inscription : École polytechnique (Palaiseau, Essonne ; 1795-....)
Laboratoire : Centre de mathématiques appliquées (Palaiseau, Essonne)
Jury : Président / Présidente : Pierre Alquier
Examinateurs / Examinatrices : Guillaume Lecué, Gilles Stoltz, Karim Lounici, Véronique Gervais, Tim Van Erven
Rapporteurs / Rapporteuses : Olivier Wintenberger, Vincent Rivoirard

Résumé

FR  |  
EN

Cette thèse aborde le sujet de la régression linéaire dans différents cadres, liés notamment à l’apprentissage. Les deux premiers chapitres présentent le contexte des travaux, leurs apports et les outils mathématiques utilisés. Le troisième chapitre est consacré à la construction d’une fonction de régularisation optimale, permettant par exemple d’améliorer sur le plan théorique la régularisation de l’estimateur LASSO. Le quatrième chapitre présente, dans le domaine de l’optimisation convexe séquentielle, des accélérations d’un algorithme récent et prometteur, MetaGrad, et une conversion d’un cadre dit “séquentiel déterministe" vers un cadre dit “batch stochastique" pour cet algorithme. Le cinquième chapitre s’intéresse à des prévisions successives par intervalles, fondées sur l’agrégation de prédicteurs, sans retour d’expérience intermédiaire ni modélisation stochastique. Enfin, le sixième chapitre applique à un jeu de données pétrolières plusieurs méthodes d’agrégation, aboutissant à des prévisions ponctuelles court-terme et des intervalles de prévision long-terme.