Thèse soutenue

Méthodes d'apprentissage automatique pour la résolution de problèmes de contrôle stochastique et d'équations aux dérivées partielles en grande dimension

FR  |  
EN
Auteur / Autrice : Maximilien Germain
Direction : Huyên Pham
Type : Thèse de doctorat
Discipline(s) : Mathématiques appliquées
Date : Soutenance le 20/06/2022
Etablissement(s) : Université Paris Cité
Ecole(s) doctorale(s) : École doctorale Sciences mathématiques de Paris centre (Paris ; 2000-....)
Partenaire(s) de recherche : Laboratoire : Laboratoire de probabilités, statistique et modélisation (Paris ; 2018-....)
Jury : Président / Présidente : Hasnaa Zidani
Examinateurs / Examinatrices : Huyên Pham, Hasnaa Zidani, Arnulf Jentzen, Christoph Reisinger, Agnès Sulem, Nadia Oudjane, Jean-François Chassagneux
Rapporteurs / Rapporteuses : Arnulf Jentzen, Christoph Reisinger

Résumé

FR  |  
EN

Cette thèse étudie plusieurs schémas numériques d'apprentissage automatique pour la résolution d'Équations aux Dérivées Partielles non-linéaires (EDPs) et du contrôle à champ moyen en dimension modérée ou grande. Elle est divisée en deux parties. La première partie est consacrée à la résolution d'EDPs paraboliques non-linéaires. Nous décrivons un schéma multistep par réseaux de neurones qui améliore les méthodes existantes et nous étudions son erreur d'approximation ainsi que celle de schémas existants dans le cas semilinéaire où l'équation est linéaire par rapport à la dérivée seconde de la solution. En utilisant des réseaux de neurones lipschitziens de type GroupSort, nous sommes capables de relier l'erreur au nombre de neurones et de couches du réseau utilisé pour l'approximation. Nous développons également des schémas one-step et multistep pour le cas plus délicat des EDPs complétement non-linéaires. Toutes les méthodes sont testées sur des exemples numériques. La seconde partie de ce travail est dédiée au contrôle à champ moyen et aux équations de McKean-Vlasov. Nous prouvons par des arguments probabilistes une vitesse de convergence pour l'approximation en dimension finie d'une EDP sur l'espace de Wasserstein. Nous utilisons alors des réseaux de neurones symétriques DeepSet pour résoudre des EDPs symétriques en grande dimension. Ainsi nous sommes capables d'approcher la solution de problèmes de contrôle à champ moyen à partir de leurs conditions d'optimalité. Nous considérons ensuite le contrôle à champ moyen avec des contraintes d'état probabilistes. Pour cela, nous représentons le problème par un problème auxiliaire sans contraintes qui peut être résolu par une variante d'un schéma existant d'apprentissage profond.