Thèse soutenue

Visualisation pour l'interprétation et l'explicabilité des prédictions issues de modèles d'apprentissage profond en TAL

FR  |  
EN
Auteur / Autrice : Alexis Delaforge
Direction : Sandra BringayCaroline Bascoul Mollevi
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance le 07/11/2022
Etablissement(s) : Université de Montpellier (2022-....)
Ecole(s) doctorale(s) : École doctorale Information, Structures, Systèmes (Montpellier ; 2015-....)
Partenaire(s) de recherche : Laboratoire : Laboratoire d'informatique, de robotique et de micro-électronique (Montpellier ; 1992-....)
Jury : Président / Présidente : Alexis Joly
Examinateurs / Examinatrices : Sandra Bringay, Caroline Bascoul Mollevi, Alexis Joly, Alexandru C. Telea, Philippe Lenca, Fleur Mougin, Arnaud Sallaberry, Romain Bourqui
Rapporteurs / Rapporteuses : Alexandru C. Telea, Philippe Lenca

Résumé

FR  |  
EN

Les réseaux de neurones profonds ont montré, cette dernière décennie, un important accroissement des performances pour de nombreuses tâches prédictives. Néanmoins, leur grand nombre de paramètres en font des boîtes noires, que les utilisateurs ont du mal à s'approprier. Récemment, la communauté s'est intéressée à l'interprétation de leur fonctionnement. Dans cette thèse, nous nous focalisons sur les techniques de visualisation de données qui sont un levier important pour améliorer l'interprétabilité des réseaux de neurones.Tout d'abord, nous proposons une nouvelle approche pour expliquer les prédictions des réseaux de neurones dans une tâche de classification dichotomique de textes. Elle s'adresse à des spécialistes ou utilisateurs réguliers de réseaux de neurones. Cette visualisation repose sur la construction de localités dans l'espace de représentation des textes et la visualisation de la frontière de décision avec des distances fidèles à celles présentes dans l'espace de représentation au sein d'une localité.Nous proposons également une seconde approche pour présenter les prédictions des réseaux de neurones, pour une tâche de classification multiclasse de textes. Elle s'adresse à des non spécialistes des réseaux de neurones. Cette étude se focalise sur un cas d'étude, celui de l'exploration des mentions d'interventions non-médicamenteuses liées au cancer dans les médias sociaux.De manière générale, ces travaux ont ouvert des perspectives prometteuses sur la production d'explications exploitant la frontière de décision et sur l'exploration des données issues des médias sociaux.