Thèse soutenue

Techniques de traitement du signal basées modèles pour systèmes d'imagerie optique non conventionnels

FR  |  
EN
Auteur / Autrice : Daniele Picone
Direction : Mauro Dalla MuraLaurent Condat
Type : Thèse de doctorat
Discipline(s) : Signal, image, paroles, télécoms
Date : Soutenance le 25/11/2021
Etablissement(s) : Université Grenoble Alpes
Ecole(s) doctorale(s) : École doctorale électronique, électrotechnique, automatique, traitement du signal (Grenoble ; 199.-....)
Partenaire(s) de recherche : Laboratoire : Grenoble Images parole signal automatique - GIPSA - Signal Images Physique (GIPSA-SIGMAPHY)
Jury : Président / Présidente : Valérie Perrier
Examinateurs / Examinatrices : Enrico Magli, Étienne Le Coarer
Rapporteurs / Rapporteuses : Andrés Almansa, Magnús Örn Úlfarsson

Résumé

FR  |  
EN

Il existe une demande croissante d'images avec une résolution spectrale et spatiale plus élevée pour des applications dans plusieurs domaines tels que la santé, l'environnement, le contrôle qualité et la surveillance des catastrophes naturelles. L'imagerie hyperspectrale fournit la diversité spectrale nécessaire pour récupérer la composition des matériaux sur site pour des applications telles que la détection d'incendies, d'anomalies, d'agents chimiques, de cibles et de changements de scène.L'exigence de dispositifs moins chers et plus compacts (par exemple, pour être embarqués sur des satellites à faible coût et une plateforme aéroportée) capables de capturer ces informations a conduit au développement de concepts de conception innovants non conventionnels pour surmonter les limitations technologiques des caméras traditionnelles.Les données acquises à partir de ces nouveaux dispositifs d'imagerie suivant le paradigme d'imagerie informatique ne sont généralement pas facilement exploitables pour l'application finale.Une phase de calcul est nécessaire pour extraire des informations utiles des acquisitions brutes.Cette thèse aborde cette question en mettant en place un problème d'inversion. L'approche générale consiste à caractériser le terme de fidélité des données avec un modèle physique, décrivant les transformations optiques sous-jacentes effectuées par le dispositif. Le défi est ensuite déplacé vers l'étape de régularisation pour bien caractériser les caractéristiques des quantités d'intérêt et améliorer la précision de l'estimation, ce qui peut être abordé avec des techniques variationnelles.L'analyse est appliquée à deux nouveaux concepts de dispositifs optiques non conventionnels.Le premier est un nouveau système d'imagerie d'acquisition compressé basé sur des matrices de filtres de couleur, qui intègre des informations provenant de capteurs avec différentes caractéristiques spatiales et spectrales dans un seul produit mosaïqué. Contrairement aux dispositifs existants basés sur la détection compressée, l'objectif n'est pas de récupérer les sources multirésolutions non compressées d'origine, mais plutôt de récupérer directement une image fusionnée synthétique avec une résolution spatiale et spectrale élevée.La solution proposée repose sur la régularisation de la variation totale et fait l'objet d'une analyse détaillée, comparant sa puissance de compression avec des alternatives logicielles simples, évaluant ses performances au fur et à mesure que le nombre de canaux change, et validant son efficacité par rapport aux méthodes de l'état de l'art lorsque appliqué séparément aux algorithmes classiques de fusion ou de mosaïquage.La deuxième classe d'appareils considérée dans ce travail est basée sur le brevet ImSPOC, un concept de conception pour un spectromètre imageur instantané de faible finesse basé sur l'interférométrie de Fabry-Pérot. Son comportement idéal suit le principe de la spectroscopie à transformée de Fourier, car son acquisition peut être interprétée comme une version échantillonnée d'un interférogramme, disposée sur différentes sous-images réparties sur le même plan focal.Après avoir défini un modèle physique basé sur la géométrie optique, sa validité est évaluée sur des acquisitions réelles en mettant en place un problème d'inférence bayésienne pour déterminer ses paramètres, avec des approches basées sur des estimateurs du maximum de vraisemblance, des recherches en grille régulière et une régression non linéaire.Divers tests préliminaires sont ensuite menés sur la méthode d'inversion, avec des approches basées sur la décomposition en valeurs singulières et les régularisations creuses, accompagnées d'une analyse de leur robustesse aux mésappariements de modèles.