Thèse soutenue

Amélioration de la performance et de l’explicabilité des méthodes d’apprentissage automatique de séries temporelles multivariées
FR  |  
EN
Accès à la thèse
Auteur / Autrice : Kevin Fauvel
Direction : Alexandre Termier
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance le 13/10/2020
Etablissement(s) : Rennes 1
Ecole(s) doctorale(s) : École doctorale Mathématiques et sciences et technologies de l'information et de la communication (Rennes)
Partenaire(s) de recherche : Laboratoire : Institut national de recherche en informatique et en automatique (France). Unité de recherche (Rennes, Bretagne-Atlantique) - Physiologie, Environnement et Génétique pour l'Animal et les Systèmes d'Elevage - LACODAM
Equipe de recherche : LACODAM

Résumé

FR  |  
EN

Le déploiement massif de capteurs couplé à leur exploitation dans de nombreux secteurs génère une masse considérable de données multivariées qui se sont révélées clés pour la recherche scientifique, les activités des entreprises et la définition de politiques publiques. Plus spécifiquement, les données multivariées qui intègrent une évolution temporelle, c’est-à-dire des séries temporelles, ont reçu une attention toute particulière ces dernières années, notamment grâce à des applications critiques de monitoring (e.g. mobilité, santé) et l’apprentissage automatique. Cependant, pour de nombreuses applications, l’adoption d’algorithmes d’apprentissage automatique ne peut se reposer uniquement sur la performance. Par exemple, le règlement général sur la protection des données de l’Union européenne, entré en application le 25 Mai 2018, introduit un droit à l’explication pour tous les individus afin qu’ils obtiennent des « meaningful explanations of the logic involved » lorsque la prise de décision automatisée a des « legal effects » sur les individus ou les affecte significativement. Les modèles d’apprentissage automatique de séries temporelles multivariées de l’état de l’art les plus performants sont des modèles difficiles à comprendre (« black-box »), qui se reposent sur des méthodes d’explicabilité applicables à n’importe quel modèle d’apprentissage automatique (post-hoc modèle-agnostique). L’axe de travail principal au sein des méthodes d’explicabilité post-hoc modèle-agnostique consiste à approximer la surface de décision d’un modèle en utilisant un modèle de remplacement explicable. Cependant, les explications du modèle de remplacement ne peuvent pas être parfaitement exactes au regard du modèle original, ce qui constitue un prérequis pour de nombreuses applications. L’exactitude est cruciale car elle correspond au niveau de confiance que l’utilisateur peut porter aux explications relatives aux prédictions du modèle, c’est-à-dire à quel point les explications reflètent ce que le modèle calcule.Cette thèse propose de nouvelles approches pour améliorer la performance et l’explicabilité des méthodes d’apprentissage automatique de séries temporelles multivariées, et établit de nouvelles connaissances concernant deux applications réelles.