Thèse soutenue

Optimisation de fonctions coûteusesModèles gaussiens pour une utilisation efficace du budget d'évaluations : théorie et pratique industrielle

FR  |  
EN
Auteur / Autrice : Julien Villemonteix
Direction : Éric Walter
Type : Thèse de doctorat
Discipline(s) : Physique
Date : Soutenance en 2008
Etablissement(s) : Paris 11
Ecole(s) doctorale(s) : Ecole doctorale Sciences et Technologies de l'Information, des Télécommunications et des Systèmes (Orsay, Essonne2000-2015)
Partenaire(s) de recherche : autre partenaire : Université de Paris-Sud. Faculté des sciences d'Orsay (Essonne)

Mots clés

FR

Mots clés contrôlés

Résumé

FR  |  
EN

Ce travail de thèse traite d’une question centrale à de nombreux problèmes d’optimisation, en particulier dans l’ingénierie. Comment optimiser une fonction lorsque le budget d’évaluations est limité au regard de la dimension et de la complexité du problème ? Ce travail discute d’algorithmes d’optimisation spécifiques à ce contexte pour lequel la plupart des méthodes classiques sont inadaptées. Le principe commun aux méthodes proposées est d’utiliser processus gaussiens et krigeage pour construire une approximation peu coûteuse de la fonction à optimiser. Cette approximation est ensuite utilisée pour choisir itérativement les évaluations à réaliser suivant un critère d’échantillonnage. La plupart des critères proposés dans la littérature cherche à échantillonner la fonction là où l’apparition d’un optimum est la plus probable. En comparaison, l’algorithme IAGO (pour Informational Approach to Global Optimization), principale contribution de ces travaux, cherche à maximiser la quantité d’information apportée, sur la position de l’optimum, par l’évaluation réalisée. Les problématiques industrielles ont guidé l’organisation de ce mémoire, qui se destine à la communauté de l’optimisation tout comme aux praticiens confrontés à des fonctions coûteuses. Aussi les applications industrielles y tiennent-elle une place importante tout comme la mise en place de l’algorithme IAGO. Nous détaillons non seulement le cas standard de l’optimisation d’une fonction réelle, mais aussi, la prise en compte de contraintes, de bruit sur les résultats des évaluations, de résultats d’évaluation du gradient, de problèmes multi-objectifs, ou encore d’incertitudes de fabrication significatives.