Algorithmes et métriques d'évaluation pour la confiance dans les systèmes utilisant l'apprentissage machine : application à la reconnaissance visuelle d'objets
Auteur / Autrice : | Romain Xu |
Direction : | Georges Quenot, Marie-Christine Rousset |
Type : | Projet de thèse |
Discipline(s) : | Informatique |
Date : | Inscription en doctorat le Soutenance le 29/11/2023 |
Etablissement(s) : | Université Grenoble Alpes |
Ecole(s) doctorale(s) : | École doctorale mathématiques, sciences et technologies de l'information, informatique |
Partenaire(s) de recherche : | Laboratoire : Laboratoire d'Informatique de Grenoble |
Jury : | Président / Présidente : Massih-reza Amini |
Examinateurs / Examinatrices : Georges Quenot, Sara Colantonio, Celine Hudelot | |
Rapporteurs / Rapporteuses : Sara Colantonio, Celine Hudelot |
Mots clés
Mots clés libres
Résumé
Lintégration des algorithmes décisionnaires utilisant des réseaux de neurones dits « profonds » dans des applications à haut risques - tels que la santé ou l'automobile - dépend de leur capacité à susciter la confiance de lutilisateur en leur décision, un enjeu majeur au centre de cette thèse. Plus précisement, ce travail porte sur trois propriétés qui conditionnent la confiance dans les modèles issus de lapprentissage machine : la performance du modèle - sa capacité à accomplir la tâche demandée ; sa capacité à évaluer le niveau dincertitude de sa décision ; et enfin son explicabilité, qui caractérise le niveau dinteraction possible entre lutilisateur et le modèle en vue dobtenir des informations concernant son fonctionnement. Cette explicabilité est soit inhérente au modèle (modèle dit « explicable par construction »), ou bien le fruit de méthodes dexplications a posteriori - qui tentent dexpliquer le comportement dun modèle préexistant. Dans le contexte dapplications de vision par ordinateur, les modèles explicables par construction cherchent tout dabord à extraire une représentation intermédiaire de limage, composée de variables sémantiques, puis bâtissent leur décision sur la base de ces variables selon un processus transparent pour lutilisateur. Notre thèse démontre cependant certaines limites dans les représentations intermédiaires des modèles de létat de lart. Par conséquent, dans le but daméliorer la qualité de cette représentation intermédiaire, notre première contribution porte sur la proposition dun nouvel algorithme - appelé PARTICUL - pour la détection non supervisée de parties dobjets dans un ensemble dimages. Cet algorithme est enrichi dune mesure dincertitude qui sert également à inférer la visibilité de chaque partie. Enfin, lexplicabilité dun modèle dépend également de la qualité de la méthode dexplication choisie, qualité qui est évaluée - à laide de métriques dédiées - selon plusieurs critères couvrant à la fois le fond et la forme de lexplication. Notre thèse démontre non seulement que certaines métriques existantes névaluent quimparfaitement le critère auquel elles sont associées - métriques pour lesquelles nous proposons des alternatives - mais également que dans le cas dun modèle complexe, ces critères correspondent en réalité à des attentes contradictoires de la part de lutilisateur, de sorte quaucune méthode ne peut satisfaire simultanément à tous ces critères et est, de fait, le résultat dun compromis. Ce constat nous pousse ainsi à réaffirmer limportance primordiale de lexactitude de linformation avant tout, afin que lutilisateur puisse prendre une décision éclairée lorsquil choisit ou non daccorder sa confiance au modèle.