Apprentissage non supervisé robuste

par Tatiana Shpakova

Projet de thèse en Mathématiques

Sous la direction de Francis Bach.

Thèses en préparation à Paris Sciences et Lettres , dans le cadre de Sciences Mathématiques de Paris Centre , en partenariat avec DIENS - Département d'informatique de l'École normale supérieure (laboratoire) et de Ecole normale supérieure (établissement de préparation de la thèse) depuis le 01-10-2015 .


  • Résumé

    Le but de ce projet de thèse est de développer de nouvelles méthodes d'apprentissage non supervisé robustes adaptés aux besoins identifiés dans d'autres disciplines et par les partenaires industriels. Plusieurs approches de l'apprentissage non supervisé existent; nous prévoyons de suivre nos travaux antérieurs sur les approches matrice de factorisation, avec un accent particulier sur la robustesse. Ceci est à la fois une optimisation et un problème statistique, à l'approche habituelle matrice de factorisation sont (a) sur la base de l'optimisation non-convexe et (b) avoir plusieurs hyperparamètres qui peuvent avoir une incidence sur la performance. Les deux problèmes sont souvent traités séparément. Par exemple, les approches bayésienne fourniront des solutions élégantes à l'adaptativité des hyperparamètres mais mettre peu l'accent sur les questions de calcul et de stabilité prouvables, tandis que la recherche sur les relaxations convexes ignore souvent les questions statistiques liées à hyperparamètres et l'adaptabilité automatique du modèle aux données. La combinaison de ces deux approches devrait apporter le meilleur des deux mondes.

  • Titre traduit

    Robust unsupervised learning


  • Résumé

    The aim of this PhD project is to develop new robust unsupervised learning methods suitable for the needs identified in other disciplines and by industrial partners. Several approaches to unsupervised learning exist; we plan to follow our earlier work on matrix factorization approaches, with a particular focus on robustness. This is both an optimization and a statistical problem, as the usual matrix factorization approaches are (a) based on non-convex optimization and (b) have several hyperparameters which may impact performance. The two problems are often treated separately. For example, Bayesian approaches will provide elegant solutions to the adaptivity of hyperparameters but put little emphasis on provable computational and stability issues, while research on convex relaxations often ignores the statistical issues related to hyperparameters and the automatic adaptivity of model to data. Combining these two approaches should bring the best of both worlds.