Thèse soutenue

Estimation de modèles de mélange probabilistes : une proposition pour un fonctionnement réparti et décentralisé

FR  |  
EN
Auteur / Autrice : Afshin Nikseresht
Direction : Marc Gelgon
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance en 2008
Etablissement(s) : Nantes
Ecole(s) doctorale(s) : École doctorale sciences et technologies de l'information et des matériaux (Nantes)
Partenaire(s) de recherche : Laboratoire : Laboratoire d’Informatique de Nantes Atlantique (UMR 6241) (Nantes)
autre partenaire : Université de Nantes. Faculté des sciences et des techniques

Mots clés

FR

Mots clés contrôlés

Résumé

FR  |  
EN

Cette thèse traite de l'estimation statistique distribué, avec sa motivation à partir, et l'application aux indexation multimédia par le contenu. Des Algorithmes et des données de divers contributeurs coopéreront vers d'un apprentissage statistique collectif. La contribution est un système d'estimation de densité de probabilité multivariée, dans le cas où cette densité prend la forme d'un modèle mélange de gaussien. Dans ce cadre, l'agrégation des modèles probabilistes de mélanges gaussiens la même catégorie, mais estimé à plusieurs noeuds sur différents ensembles de données, est une nécessité typique dont nous adressons dans cette thèse. Les approches proposées pour la fusion de mélanges gaussiens exigent seulement du calcul modéré à chaque noeud et peu de données de transit entre les noeuds. Les deux propriétés sont obtenues en agrégeant des modèles via leurs (peu) paramètres plutôt que par des données multimédia. Dans la première approche, en supposant estimés indépendamment des mélanges, nous propageons leurs paramètres de façon décentralisée (gossip), dans un réseau, et d'agréger les GMMs à partir des noeuds reliés pour améliorer l'estimation. Des modèles de mélange ont en fait concaténés puis réduits à un nombre approprié de composants gaussiens. Une modification de la divergence de Kullback conduit à un processus itératif d'estimation de ce modèle agrégé. Comme une amélioration par un changement de principe au cours du premier travail, l'agrégation est réalisée par la modélisation bayésienne du problème de groupement composant de GMM et résolue en utilisant une méthode variationnelle de Bayes, appliquée au niveau composant. Cela permet de déterminer, par un processus simple, à faible coût pourtant précis, des attributions des composants qui devraient être agrégés et le nombre de composants dans le mélange après l'agrégation. Comme seulement les paramètres du modèle sont échangés sur le réseau, de calcul et de la charge du réseau restent très modérées