Thèse soutenue

Optimisation déterministe et stochastique pour des problèmes de traitement d'images en grande dimension

FR  |  
EN
Auteur / Autrice : Thi Thanh Xuan Vu
Direction : Nadège Thirion-MoreauSylvain Maire
Type : Thèse de doctorat
Discipline(s) : Mathématiques et informatique. Mathématiques
Date : Soutenance le 13/11/2017
Etablissement(s) : Aix-Marseille
Ecole(s) doctorale(s) : Ecole doctorale Mathématiques et Informatique de Marseille (Marseille ; 1994-....)
Partenaire(s) de recherche : Laboratoire : Laboratoire des Sciences de l'Information et des Systèmes (La Garde, Var)
Jury : Président / Présidente : David Brie
Examinateurs / Examinatrices : Vicente Zarzoso, Bruno Torrésani, Caroline Chaux
Rapporteurs / Rapporteuses : Laurent Albera, Anh-Huy Phan

Mots clés

FR  |  
EN

Mots clés contrôlés

Mots clés libres

Résumé

FR  |  
EN

Dans cette thèse on s’intéresse au problème des décompositions canoniques polyadiques de tenseurs d’ordre N potentiellement grands et sous différentes contraintes (non-négativité, aspect creux lié à une possible surestimation du rang du tenseur). Pour traiter ce problème, nous proposons trois nouvelles approches itératives différentes: deux approches déterministes dont une approche proximale, et une approche stochastique. La première approche étend les travaux de thèse de J-P. Royer au cas de tenseurs de dimension N. Dans l’approche stochastique, nous considérons pour la première fois dans le domaine des décompositions tensorielles, des algorithmes génétiques (mimétiques) dont principe général repose sur l’évolution d’une population de candidats. Dans le dernier type d’approche, nous avons considéré un algorithme proximal pré-conditionné (le Block-Coordinate Variable Metric Forward-Backward), algorithme fonctionnant par blocs de données avec une matrice de pré-conditionnement liée à chaque bloc et fondé sur deux étapes successives principales : une étape de gradient et une étape proximale. Finalement, les différentes méthodes suggérées sont comparées entre elles et avec d’autres algorithmes classiques de la littérature sur des données synthétiques (à la fois aléatoires ou proches des données observées en spectroscopie de fluorescence) et sur des données expérimentales réelles correspondant à une campagne de surveillance des eaux d’une rivière et visant à la détection d’apparition de polluants.