Thèse soutenue

Méthodes Bayésiennes Plug and Play pour les problèmes inverses en imagerie

FR  |  
EN
Auteur / Autrice : Mario Esteban Gonzalez Olmedo
Direction : Andrés AlmansaPablo Musé
Type : Thèse de doctorat
Discipline(s) : Mathématiques appliquées
Date : Soutenance le 15/12/2021
Etablissement(s) : Université Paris Cité en cotutelle avec Universidad de la República (Montevideo)
Ecole(s) doctorale(s) : École doctorale Sciences mathématiques de Paris centre (Paris ; 2000-....)
Partenaire(s) de recherche : Laboratoire : MAP5 - Mathématiques Appliquées à Paris 5
Jury : Président / Présidente : Julie Delon
Examinateurs / Examinatrices : Andrés Almansa, Pablo Musé, Julie Delon, Pierre Chainais, Gabriele Steidl, Jean-François Aujol, Ricardo Fraiman, Pablo Sprechmann
Rapporteurs / Rapporteuses : Pierre Chainais, Gabriele Steidl

Mots clés

FR  |  
EN

Mots clés libres

Résumé

FR  |  
EN

Cette thèse traite des méthodes bayésiennes pour résoudre des problèmes inverses mal posés en imagerie avec des distributions a priori d'images apprises. La première partie de cette thèse (chapitre 3) traite de deux problèmes particuliers, à savoir le débruitage et la décompression conjoints et la super-résolution multi-images: Après une étude approfondie des statistiques de bruit pour ces problèmes dans le domaine transformé (ondelettes ou Fourier), nous dérivons deux nouveaux algorithmes pour résoudre ce problème inverse particulie: L'un d'eux est basé sur une distributions a priori d'auto-similarité multi-échelle et peut être vu comme une généralisation du célèbre algorithme de Non-Local Bayes au cas du bruit non gaussien. Le second utilise un débruiteur de réseau de neurones pour coder implicitement la distribution a priori, et un schéma de division pour incorporer cet distribution dans un algorithme d'optimisation pour trouver un estimateur de type MAP. La deuxième partie de cette thèse se concentre sur le modèle Variational AutoEncoder (VAE) et certaines de ses variantes qui montrent ses capacités à capturer explicitement la distribution de probabilité d'ensembles de données de grande dimension tels que les images. Sur la base de ces modèles VAE, nous proposons deux manières de les incorporer comme distribution a priori pour les problèmes inverses généraux en imagerie: A) Le premier (chapitre 4) calcule un estimateur MAP conjoint (espace-latent) nommé Joint Posterior Maximization using an Autoencoding Prior (JPMAP). Nous montrons des preuves théoriques et expérimentales que la fonction objectif proposée satisfait une propriété de bi-convexité faible qui est suffisante pour garantir que notre schéma d'optimisation converge vers un point stationnaire. Les résultats expérimentaux montrent également la meilleure qualité des solutions obtenues par notre approche JPMAP par rapport à d'autres approches MAP non convexes qui restent le plus souvent bloquées dans des minima locaux. B) Le second (chapitre 5) développe un algorithme d'échantillonnage a posteriori de type Gibbs pour l'exploration des distributions a posteriori de problèmes inverses utilisant des chaînes multiples et un VAE comme distribution a priori. Nous montrons comment utiliser ces échantillons pour obtenir des estimations MMSE et leur incertitude correspondante.