Thèse soutenue

Méthodes plug-and-play convergentes pour la résolution de problèmes inverses en imagerie avec régularisation explicite, profonde et non-convexe

FR  |  
EN
Auteur / Autrice : Samuel Hurault
Direction : Nicolas PapadakisArthur Leclaire
Type : Thèse de doctorat
Discipline(s) : Mathématiques appliquées et calcul scientifique
Date : Soutenance le 27/11/2023
Etablissement(s) : Bordeaux
Ecole(s) doctorale(s) : École doctorale Mathématiques et informatique (Talence, Gironde ; 1991-....)
Partenaire(s) de recherche : Laboratoire : Institut de mathématiques de Bordeaux
Jury : Président / Présidente : Gabriel Peyré
Examinateurs / Examinatrices : Jérôme Bolte, Emilie Chouzenoux
Rapporteurs / Rapporteuses : Rémi Gribonval, Pierre Weiss

Résumé

FR  |  
EN

Les méthodes plug-and-play constituent une classe d'algorithmes itératifs pour la résolution de problèmes inverses en imagerie, où la régularisation est effectuée par un débruiteur de bruit Gaussien. Ces algorithmes donnent de très bonnes performances de restauration, notamment lorsque le débruiteur est paramétré par un réseau de neurones profond. Cependant, l'analyse théorique de la convergence de ces méthodes reste incomplète. La plupart des résultats de convergence existants considèrent des débruiteurs non expansifs, ce qui n'est pas réaliste (ou sous-optimal), ou limitent leur analyse aux termes d'attache aux données fortement convexes. De plus, les algorithmes itératifs plug-and-play ne visent pas à minimiser une fonctionnelle explicite, ce qui peut limiter leur interprétabilité et leur contrôle numérique. Nous distinguons deux types d'algorithmes plug-and-play : les algorithmes RED, qui sont construits en supposant que le débruiteur approche le gradient du logarithme de la distribution des images propres (appelé log prior), et les algorithmes PnP, qui sont construits par approximation de l'opérateur proximal du log prior.Pour ces deux familles d'algorithmes, nous proposons de nouvelles preuves de convergence lorsqu'ils sont utilisés en conjonction avec débruiteur spécifique. Le débruiteur proposé, appelé débruiteur "Gradient-Step", s'écrit comme une étape de descente de gradient sur un potentiel explicite et non convexe paramétré par un réseau de neurones profond. Après l'entraînement, ce potentiel approche une version lissée du log prior. De plus, nous démontrons que ce débruiteur peut également s'écrire comme un opérateur proximal. Nos expériences montrent qu'il est possible d'apprendre un tel débruiteur profond sans compromettre ses performances. En tirant parti des résultats de convergence des algorithmes proximaux pour des problèmes non-convexes, nous démontrons que nos algorithmes RED et PnP sont des processus itératifs convergents vers des points stationnaires de fonctionnelles explicites. Certains des énoncés de convergence proposés impliquent cependant des conditions restrictives sur les paramètres du problème. Nous proposons alors une version relâchée de l'algorithme de descente de gradient proximal qui converge pour une plage de paramètres de régularisation plus large, permettant ainsi une restauration d'image plus précise. Nous appliquons nos algorithmes PnP et RED à divers problèmes inverses mal posés, tels que le défloutage, la super-résolution et l'inpainting. Nos résultats numériques valident les résultats théoriques de convergence et démontrent que nos algorithmes atteignent des performances de pointe, à la fois quantitativement et qualitativement. Les algorithmes RED et PnP ne sont cependant pas applicables pour traiter du bruit de Poisson. Nous proposons alors une généralisation du plug-and-play basé sur l'algorithme de descente de gradient Bregman (BPG). BPG remplace la distance Euclidienne par une divergence de Bregman, qui permet de mieux capturer la régularité sous-jacente d'un problème inverse donné. Nous introduisons un nouveau modèle de bruit, appelé modèle de bruit de Bregman, qui généralise le bruit Gaussien à cette nouvelle géométrie, ainsi que de nouvelles versions "Bregman" des algorithmes RED et PnP. Nos évaluations expérimentales, menées sur des problèmes inverses de Poisson, prouvent l'efficacité de la méthode et valident les résultats théoriques de convergence.