Optimisation de fonctions coûteusesModèles gaussiens pour une utilisation efficace du budget d'évaluations : théorie et pratique industrielle
Auteur / Autrice : | Julien Villemonteix |
Direction : | Éric Walter |
Type : | Thèse de doctorat |
Discipline(s) : | Physique |
Date : | Soutenance en 2008 |
Etablissement(s) : | Paris 11 |
Ecole(s) doctorale(s) : | Ecole doctorale Sciences et Technologies de l'Information, des Télécommunications et des Systèmes (Orsay, Essonne2000-2015) |
Partenaire(s) de recherche : | autre partenaire : Université de Paris-Sud. Faculté des sciences d'Orsay (Essonne) |
Mots clés
Mots clés contrôlés
Mots clés libres
Résumé
Ce travail de thèse traite d’une question centrale à de nombreux problèmes d’optimisation, en particulier dans l’ingénierie. Comment optimiser une fonction lorsque le budget d’évaluations est limité au regard de la dimension et de la complexité du problème ? Ce travail discute d’algorithmes d’optimisation spécifiques à ce contexte pour lequel la plupart des méthodes classiques sont inadaptées. Le principe commun aux méthodes proposées est d’utiliser processus gaussiens et krigeage pour construire une approximation peu coûteuse de la fonction à optimiser. Cette approximation est ensuite utilisée pour choisir itérativement les évaluations à réaliser suivant un critère d’échantillonnage. La plupart des critères proposés dans la littérature cherche à échantillonner la fonction là où l’apparition d’un optimum est la plus probable. En comparaison, l’algorithme IAGO (pour Informational Approach to Global Optimization), principale contribution de ces travaux, cherche à maximiser la quantité d’information apportée, sur la position de l’optimum, par l’évaluation réalisée. Les problématiques industrielles ont guidé l’organisation de ce mémoire, qui se destine à la communauté de l’optimisation tout comme aux praticiens confrontés à des fonctions coûteuses. Aussi les applications industrielles y tiennent-elle une place importante tout comme la mise en place de l’algorithme IAGO. Nous détaillons non seulement le cas standard de l’optimisation d’une fonction réelle, mais aussi, la prise en compte de contraintes, de bruit sur les résultats des évaluations, de résultats d’évaluation du gradient, de problèmes multi-objectifs, ou encore d’incertitudes de fabrication significatives.