Transport Optimal généralisé et applications

par Thibault Sejourne

Projet de thèse en Mathématiques

Sous la direction de Gabriel Peyré et de François-Xavier Vialard.

Thèses en préparation à Paris Sciences et Lettres , dans le cadre de École doctorale de Sciences mathématiques de Paris Centre (Paris) , en partenariat avec École normale supérieure (Paris ; 1985-....). Département de mathématiques et applications (laboratoire) et de École normale supérieure (Paris ; 1985-....) (établissement de préparation de la thèse) depuis le 01-09-2018 .


  • Résumé

    Comparer des disributions de probabilités est un problème fondamental en sciences des données. Des normes et divergens simples telle que la variation totale ou l'entropie relative ne comparent les densités que d'une manière locale, et sont incapables de capter la nature géométrique du problème. Afin d'aller plus loin, les normes euclidiennes à noyau (également appelé "Maximum Mean Discrepancy", ou MMD) et le transport optimal (OT) sont les deux classes de distances entre mesures prenant en compte la géométrie de l'espace sous-jacent et métrisant la convergence en loi. Le sujet de cette thèse est d'étudier les divergences de Sinkhorn, une famille de divergences géométriques qui interpolent entre la MMD et le transport optimal. Le but est de fournir des propriétés fondamentales (telles que la topologie induite sur l'espace des mesures et le flot-gradient associé), ainsi que développer des algorithmes rapides pour les appliquer en tant que fonctions de coût dans des contextes d'imagerie ou de machine learning.

  • Titre traduit

    Generalized Optimal Transport and applications


  • Résumé

    Comparing probability distributions is a fundamental problem in data sciences. Simple norms and divergences such as the total variation and the relative entropy only compare densities in a point-wise manner and fail to capture the geometric nature of the problem. Going further, Euclidean kernel norms (often called Maximum Mean Discrepancies, MMD) and Optimal Transport distances (OT) are the two main classes of distances between measures that take into account the geometry of the underlying space and metrize the convergence in law. The subject of this PhD thesis is to study the Sinkhorn divergences, a family of geometric divergences which interpolates between MMD and OT. We aim at providing key theoretical properties (such as the induced topology over the space of measure and the associated geometry of gradient flows), developing innovative fast computational schemes and applying these divergences as loss functions in imaging sciences and machine learning.