Thèse soutenue

Estimation non paramétrique de densités conditionnelles : grande dimension, parcimonie et algorithmes gloutons.
FR  |  
EN
Accès à la thèse
Auteur / Autrice : Minh-Lien Jeanne Nguyen
Direction : Vincent RivoirardClaire Lacour
Type : Thèse de doctorat
Discipline(s) : Mathématiques appliquées
Date : Soutenance le 08/07/2019
Etablissement(s) : Université Paris-Saclay (ComUE)
Ecole(s) doctorale(s) : École doctorale de mathématiques Hadamard (Orsay, Essonne ; 2015-....)
Partenaire(s) de recherche : établissement opérateur d'inscription : Université Paris-Sud (1970-2019)
Laboratoire : Laboratoire de mathématiques d'Orsay (1998-....)
Jury : Président / Présidente : Pascal Massart
Examinateurs / Examinatrices : Vincent Rivoirard, Claire Lacour, Pascal Massart, Béatrice Laurent, Markus Reiß, Olivier Lopez, Arnak S. Dalalyan
Rapporteurs / Rapporteuses : Béatrice Laurent, Markus Reiß

Résumé

FR  |  
EN

Nous considérons le problème d’estimation de densités conditionnelles en modérément grandes dimensions. Beaucoup plus informatives que les fonctions de régression, les densités condi- tionnelles sont d’un intérêt majeur dans les méthodes récentes, notamment dans le cadre bayésien (étude de la distribution postérieure, recherche de ses modes...). Après avoir rappelé les problèmes liés à l’estimation en grande dimension dans l’introduction, les deux chapitres suivants développent deux méthodes qui s’attaquent au fléau de la dimension en demandant : d’être efficace computation- nellement grâce à une procédure itérative gloutonne, de détecter les variables pertinentes sous une hypothèse de parcimonie, et converger à vitesse minimax quasi-optimale. Plus précisément, les deux méthodes considèrent des estimateurs à noyau bien adaptés à l’estimation de densités conditionnelles et sélectionnent une fenêtre multivariée ponctuelle en revisitant l’algorithme glouton RODEO (Re- gularisation Of Derivative Expectation Operator). La première méthode ayant des problèmes d’ini- tialisation et des facteurs logarithmiques supplémentaires dans la vitesse de convergence, la seconde méthode résout ces problèmes, tout en ajoutant l’adaptation à la régularité. Dans l’avant-dernier cha- pitre, on traite de la calibration et des performances numériques de ces deux procédures, avant de donner quelques commentaires et perspectives dans le dernier chapitre.