Algorithmes stochastiques pour l'apprentissage et l'optimisation sur des variétés riemanniennes

par Pablo Jimenez

Projet de thèse en Mathématiques appliquées

Sous la direction de Éric Moulines et de Alain Durmus.

Thèses en préparation à l'Institut polytechnique de Paris , dans le cadre de École doctorale de mathématiques Hadamard (Orsay, Essonne ; 2015-....) , en partenariat avec Centre de mathématiques (Palaiseau, Essonne) (laboratoire) et de SIMPAS : Signal IMage Probabilités numériques Apprentissage Statistique (equipe de recherche) depuis le 31-08-2019 .


  • Résumé

    La tendance actuelle est à l'utilisation de méthodes d'apprentissage statistique en conjonction avec des techniques de géométrie différentielle. L'une des idées principales derrière ces modèles est de supposer que les observations appartiennent à une variété riemannienne (par exemple, le plus souvent, un espace symétrique Riemannien ou une variété de Grassmann). Malgré un regain d'intérêt, les résultats théoriques et les algorithmes de calcul actuellement disponibles pour traiter ces problèmes restent très limités. Alors que l'optimisation déterministe sur les variétés riemanniennes a fait l'objet d'études approfondies, on en sait beaucoup moins sur l'optimisation stochastique - nécessaire en particulier pour traiter de grands ensembles de données - ou l'échantillonnage sur ces variétés. Un objectif important est de développer un cadre pour l'approximation stochastique (y compris les méthodes de descente de gradient stochastique), les processus stochastiques et la simulation de Monte Carlo qui est adaptée aux problèmes d'apprentissage appliqué et d'optimisation typiques de l'apprentissage statistique et de l'IA.

  • Titre traduit

    Stochastic algorithms for learning and optimization on Riemannian manifolds


  • Résumé

    There is current trend in which statistical learning methods are used in conjunction with differential geometric techniques. One of the main ideas behind these models is to assume that the observations belongs to some Riemannian manifold (e.g.: most often, a Riemannian symmetric space or Grassmann manifold). Despite a surge of interest, the theoretical results and computational algorithms currently available for dealing with these problems remain quite limited. While deterministic optimization on Riemannian manifolds has been extensively studied, much less is known on stochastic optimization -required in particular to process large data sets-, or sampling on these manifolds. An important objective is to develop a coherent framework for stochastic approximation (including stochastic gradient descent methods) Stochastic processes and Monte Carlo simulation which is adapted to applied learning and optimization problems typically appearing in Machine Learning and A.I.