Thèse soutenue

Méthodes adaptatives d'apprentissage pour des interfaces cerveau-ordinateur basées sur les potentiels évoqués

FR  |  
EN
Auteur / Autrice : Nathalie Gayraud
Direction : Maureen Clerc
Type : Thèse de doctorat
Discipline(s) : Automatique, traitement du signal et des images
Date : Soutenance le 11/12/2018
Etablissement(s) : Université Côte d'Azur (ComUE)
Ecole(s) doctorale(s) : École doctorale Sciences et technologies de l'information et de la communication (Sophia Antipolis, Alpes-Maritimes)
Partenaire(s) de recherche : établissement de préparation : Université de Nice (1965-2019)
Laboratoire : Institut national de recherche en informatique et en automatique (France). Unité de recherche (Sophia Antipolis, Alpes-Maritimes) - Computational Imaging of the Central Nervous System
Jury : Président / Présidente : Nicolas Courty
Examinateurs / Examinatrices : Nicolas Courty, Marco Congedo, Michaël Tangermann, Moritz Grosse-Wentrup, Alain Rakotomamonjy
Rapporteurs / Rapporteuses : Marco Congedo, Michaël Tangermann

Mots clés

FR  |  
EN

Résumé

FR  |  
EN

Les interfaces cerveau machine (BCI pour Brain Computer Interfaces) non invasives permettent à leur utilisateur de contrôler une machine par la pensée. Ce dernier doit porter un dispositif d'acquisition de signaux électroencéphalographiques (EEG), qui sont dotés d'un rapport signal sur bruit assez faible ; à ceci s'ajoute l’importante variabilité tant à travers les sessions d'utilisation qu’à travers les utilisateurs. Par conséquent, la calibration du BCI est souvent nécessaire avant son utilisation. Cette thèse étudie les sources de cette variabilité, dans le but d'explorer, concevoir, et implémenter des méthodes d'autocalibration. Nous étudions la variabilité des potentiels évoqués, particulièrement une composante tardive appelée P300. Nous nous penchons sur trois méthodes d’apprentissage par transfert : la Géométrie Riemannienne, le Transport Optimal, et l’apprentissage ensembliste. Nous proposons un modèle de l'EEG qui tient compte de la variabilité. Les paramètres résultants de nos analyses nous servent à calibrer ce modèle et à simuler une base de données, qui nous sert à évaluer la performance des méthodes d’apprentissage par transfert. Puis ces méthodes sont combinées et appliquées à des données expérimentales. Nous proposons une méthode de classification basée sur le Transport Optimal dont nous évaluons la performance. Ensuite, nous introduisons un marqueur de séparabilité qui nous permet de combiner Géométrie Riemannienne, Transport Optimal et apprentissage ensembliste. La combinaison de plusieurs méthodes d’apprentissage par transfert nous permet d’obtenir un classifieur qui s’affranchit des différentes sources de variabilité des signaux EEG.