Thèse soutenue

Estimation et sélection de variables dans les modèles de mélange d’experts de grande dimension
FR  |  
EN
Accès à la thèse
Auteur / Autrice : Bao Tuyen Huynh
Direction : Faicel Chamroukhi
Type : Thèse de doctorat
Discipline(s) : Mathématiques
Date : Soutenance le 03/12/2019
Etablissement(s) : Normandie
Ecole(s) doctorale(s) : École doctorale mathématiques, information et ingénierie des systèmes (Caen)
Partenaire(s) de recherche : Laboratoire : Laboratoire de Mathématiques Nicolas Oresme (Caen ; 2002-....)
établissement de préparation : Université de Caen Normandie (1971-....)
Jury : Président / Présidente : Florence Forbes
Examinateurs / Examinatrices : Julien Jacques, Michael Fop, Emilie Devijver
Rapporteurs / Rapporteuses : Florence Forbes, Julien Jacques

Résumé

FR  |  
EN

Cette thèse traite de la modélisation et de l’estimation de modèles de mélanges d’experts de grande dimension, en vue d’efficaces estimation de densité, prédiction et classification de telles données complexes car hétérogènes et de grande dimension. Nous proposons de nouvelles stratégies basées sur l’estimation par maximum de vraisemblance régularisé des modèles pour pallier aux limites des méthodes standards, y compris l’EMV avec les algorithmes d’espérance-maximisation (EM), et pour effectuer simultanément la sélection des variables pertinentes afin d’encourager des solutions parcimonieuses dans un contexte haute dimension. Nous introduisons d’abord une méthode d’estimation régularisée des paramètres et de sélection de variables d’un mélange d’experts, basée sur des régularisations l1 (lasso) et le cadre de l’algorithme EM, pour la régression et la classification adaptés aux contextes de la grande dimension. Ensuite, nous étendons la stratégie un mélange régularisé de modèles d’experts pour les données discrètes, y compris pour la classification. Nous développons des algorithmes efficaces pour maximiser la fonction de log-vraisemblance l1 -pénalisée des données observées. Nos stratégies proposées jouissent de la maximisation monotone efficace du critère optimisé, et contrairement aux approches précédentes, ne s’appuient pas sur des approximations des fonctions de pénalité, évitent l’inversion de matrices et exploitent l’efficacité de l’algorithme de montée de coordonnées, particulièrement dans l’approche proximale par montée de coordonnées.