Thèse soutenue

Nouvel algorithme d'optimisation bayésien utilisant une approche Monte-Carlo séquentielle.
FR  |  
EN
Accès à la thèse
Auteur / Autrice : Romain Benassi
Direction : Emmanuel Vazquez
Type : Thèse de doctorat
Discipline(s) : Traitement du Signal (STIC)
Date : Soutenance le 19/06/2013
Etablissement(s) : Supélec
Ecole(s) doctorale(s) : Ecole doctorale Sciences et Technologies de l'Information, des Télécommunications et des Systèmes (Orsay, Essonne ; 2000-2015)
Partenaire(s) de recherche : Laboratoire : Supélec Sciences des Systèmes - EA4454 / E3S
Jury : Président / Présidente : Éric Walter
Examinateurs / Examinatrices : Gilles Duc, Rodolphe Le Riche
Rapporteurs / Rapporteuses : Olivier Cappé, Luc Pronzato

Mots clés

FR  |  
EN

Résumé

FR  |  
EN

Ce travail de thèse s'intéresse au problème de l'optimisation globale d'une fonction coûteuse dans un cadre bayésien. Nous disons qu'une fonction est coûteuse lorsque son évaluation nécessite l’utilisation de ressources importantes (simulations numériques très longues, notamment). Dans ce contexte, il est important d'utiliser des algorithmes d'optimisation utilisant un faible nombre d'évaluations de cette dernière. Nous considérons ici une approche bayésienne consistant à affecter à la fonction à optimiser un a priori sous la forme d'un processus aléatoire gaussien, ce qui permet ensuite de choisir les points d'évaluation de la fonction en maximisant un critère probabiliste indiquant, conditionnellement aux évaluations précédentes, les zones les plus intéressantes du domaine de recherche de l'optimum. Deux difficultés dans le cadre de cette approche peuvent être identifiées : le choix de la valeur des paramètres du processus gaussien et la maximisation efficace du critère. La première difficulté est généralement résolue en substituant aux paramètres l'estimateur du maximum de vraisemblance, ce qui est une méthode peu robuste à laquelle nous préférons une approche dite complètement bayésienne. La contribution de cette thèse est de présenter un nouvel algorithme d'optimisation bayésien, maximisant à chaque étape le critère dit de l'espérance de l'amélioration, et apportant une réponse conjointe aux deux difficultés énoncées à l'aide d'une approche Sequential Monte Carlo. Des résultats numériques, obtenus à partir de cas tests et d'applications industrielles, montrent que les performances de notre algorithme sont bonnes par rapport à celles d’algorithmes concurrents.