Thèse soutenue

Schémas d'approximation numérique probabiliste en finance : méthodes d'apprentissage pour les ESDRs de grande dimension et algorithmes de Monte Carlo sans biais pour des modèles à volatilité stochastique

FR  |  
EN
Auteur / Autrice : Junchao Chen
Direction : Jean-François ChassagneuxNoufel Frikha
Type : Thèse de doctorat
Discipline(s) : Mathématiques appliquées
Date : Soutenance le 24/03/2022
Etablissement(s) : Université Paris Cité
Ecole(s) doctorale(s) : École doctorale Sciences mathématiques de Paris centre (Paris ; 2000-....)
Partenaire(s) de recherche : Laboratoire : Laboratoire de probabilités, statistique et modélisation (Paris ; 2018-....)
Jury : Président / Présidente : Huyên Pham
Examinateurs / Examinatrices : Huyên Pham, Xiaolu Tan, Pierre Henry-Labordère, Christoph Reisinger, Céline Labart
Rapporteurs / Rapporteuses : Xiaolu Tan, Pierre Henry-Labordère

Résumé

FR  |  
EN

Dans la première partie, nous analysons en détail la convergence théorique de la solution des équations différentielles stochastiques rétrogrades (EDSR) et des applications numériques dans le domaine de la finance avec à la fois l'algorithme SGD traditionnel et la méthode d'apprentissage en profondeur. Les méthodes sont basées sur la connexion classique entre les équations aux dérivées partielles (EDP) paraboliques non linéaires et les BSDE. Et de nombreux résultats numériques sur les EDSR de grande dimension sont présentés pour comparaison avec les autres articles. Dans le chapitre 2, nous introduisons ici un algorithme dont on montre qu'il converge vers un minimum global. Tout d'abord, nous passons de l'espace d'approximation des réseaux de neurones profonds à une spécification linéaire plus classique de l'espace d'approximation. Cependant, en raison de la non-linéarité du générateur f, le problème d'optimisation globale à résoudre est toujours non convexe. Pour contourner ce problème, nous utilisons une procédure d'itération Picard. La procédure globale devient alors une séquence de problèmes d'optimisation linéaire-quadratique qui sont résolus par un algorithme SGD. Notre premier résultat principal est un contrôle de l'erreur globale entre l'algorithme implémenté et la solution de la EDSR qui montre notamment la convergence de la méthode sous certaines conditions de petitesse, voir le Théorème 2.2.1. En particulier, contrairement à autre articles, notre résultat prend en compte l'erreur induite par l'algorithme SGD. Dans nos expériences numériques, nous nous appuyons sur des espaces d'approximation de sparse grid qui sont connus pour être bien adaptés pour traiter des problèmes de grande dimension. Dans le cadre des coefficients périodiques, nous établissons comme deuxième résultat principal, une borne supérieure sur la complexité globale pour notre algorithme implémenté, voir le Théorème 2.3.1. Nous montrons notamment que la malédiction de la dimensionnalité est apprivoisée dans le sens où la complexité est d'ordre epsilon {-p} \log(epsilon)| {q(d)}, où p est un constante qui ne dépend pas de la dimension PDE et d\mapsto q(d) est une fonction affine. Nous démontrons également numériquement l'efficacité de nos méthodes dans un cadre de grande dimension. Dans le chapitre 3, nous rappelons d'abord la définition des schémas de Runge-Kutta pour les EDSR dans Section 3.2, puis nous étudions la stabilité des schémas de Runge-Kutta de deux manières différentes. Le Theorem 3.2.1 donne les erreurs en temps discret de 5 méthodes différentes qui seront étudiées dans ce chapitre. Dans Section 3.3, nous présentons une implémentation des schémas de Runge-Kutta pour résoudre les EDSR par réseaux de neurones, y compris le cas particulier des schémas d'Euler implicites, schéma d'Euler explicite, schéma de Crank-Nicolson, schéma de Runge-Kutta explicite en deux étapes. Nous fournissons le contrôle d'erreur de la méthode d'apprentissage générale par le schéma de Runge-Kutta et le réseau de neurones à la fin de cette section, voir le Theorem 3.3.2. Dans Section 3.4, nous vérifions numériquement l'ordre de convergence de l'erreur en temps discret des 5 méthodes du Theorem 3.2.1, et nous comparons également le coût du temps de calcul de ces méthodes. Dans la deuxième partie, nous présentons des formules de représentation probabilistes pour la loi marginale d'un modèle à volatilité stochastique à dérive non bornée. Nous établissons également des formules d'intégration par partie pour les Delta et Vega. Ces formules sont basées sur une chaîne de Markov évoluant le long d'une grille temporelle aléatoire donnée par les instants de saut d'un processus de renouvellement. Une méthode de Monte Carlo sans biais de complexité optimale découle de nos formules. La principale nouveauté de notre approche par rapport aux travaux est que nous permettons au coefficient de dérive d'être éventuellement non borné.