Thèse soutenue

Modèle de mémoire double pour de l'apprentissage incrémental
FR  |  
EN
Accès à la thèse
Auteur / Autrice : Miguel Angel Solinas
Direction : Martial Mermillod
Type : Thèse de doctorat
Discipline(s) : PCN - Sciences cognitives, psychologie et neurocognition
Date : Soutenance le 09/12/2021
Etablissement(s) : Université Grenoble Alpes
Ecole(s) doctorale(s) : École doctorale ingénierie pour la santé, la cognition, l'environnement (Grenoble ; 1995-....)
Partenaire(s) de recherche : Laboratoire : Laboratoire de psychologie et neurocognition (Grenoble ; Chambery ; 1996?-....)
Jury : Président / Présidente : Anne Guérin-Dugué
Examinateurs / Examinatrices : Martial Mermillod, Laëtitia Matignon
Rapporteurs / Rapporteuses : Rufin VanRullen, Damien Querlioz

Mots clés

FR  |  
EN

Résumé

FR  |  
EN

L'une des principales caractéristiques qui rendent l'être humain unique est sa capacité à apprendre en permanence. Cela fait partie du développement individuel et c'est vital pour progresser et éviter la stagnation. Pour évoluer, l'être humain a besoin d'acquérir de l'expérience et des compétences afin d'élargir constamment son champ d'action. Les réseaux neuronaux artificiels n'ont pas la capacité de stocker des souvenirs et d'apprendre de manière incrémentielle. De fait, de nombreuses recherches sont menées pour permettre aux réseaux neuronaux artificiels d'apprendre en permanence et d'éviter les oublis catastrophiques.Les réseaux de neurones artificiels souffrent toujours de l'oubli catastrophique des anciennes connaissances au fur et à mesure de l'apprentissage de nouvelles informations. Modéliser un véritable apprentissage continu, comme le font les humains, reste un défi et nécessite de trouver des solutions appropriées à ce problème.Premièrement, les approches basées sur la neurogenèse font évoluer l'architecture du réseau neuronal pour qu'il s'adapte à différentes expériences de formation en utilisant des ensembles indépendants de paramètres. Deuxièmement, les approches basées sur la consolidation synaptique limitent les changements des paramètres importants des tâches apprises précédemment. Ainsi, les nouvelles tâches utilisent des neurones qui sont moins utiles pour les tâches précédentes. Il est donc possible de revoir les informations apprises précédemment de deux manières : avec des échantillons réels (répétition) ou avec des échantillons synthétiques (pseudo-répétition).Les méthodes de répétition permettent de surmonter l'oubli catastrophique en rejouant une quantité d'exemples précédemment appris, stockés dans des buffers de mémoire dédiés.D'autre part, les méthodes de pseudo-répétition génèrent des pseudo-échantillons pour émuler les données précédemment apprises, ce qui évite d'avoir recours à des tampons dédiés.L'examen de ce qui a été appris précédemment par le biais d'exemples ou de pseudo-échantillons pendant l'apprentissage de nouvelles tâches permet d'adapter l'ensemble global de paramètres aux tâches passées et nouvelles. De cette façon, il est possible de surmonter l'oubli catastrophique de manière similaire à l'apprentissage profond classique lorsque l'ensemble des données est présent. Comme les méthodes de repetition s'appuient souvent sur des buffers de mémoire limités ou sur des modèles grossièrement génératifs, leur plus grand défi est de représenter correctement et globalement ce qui a été appris précédemment.Cette thèse rassemble des contributions sur l'apprentissage continu, sur les propriétés des autoencodeurs et sur le transfert de connaissances. Tout d'abord, nous faisons une distinction entre l'apprentissage continu et l'oubli catastrophique. Nous soulignons certaines limitations concernant les paramètres utilisés pour évaluer les approches d'apprentissage continu et nous traçons des pistes de recherche futures. Deuxièmement, nous introduisons un module de mémoire auto-associative et une méthode d'échantillonnage afin de générer des échantillons synthétiques pour capturer et transférer les connaissances que les méthodes de repetition peuvent utiliser. Troisièmement, nous proposons un modèle d'apprentissage continu lorsque des problèmes de confidentialité existent. Nous améliorons et étendons ce modèle en combinant des méthodes de pseudo-répétition et de répétition pour fournir une solution efficace et compétitive qui améliore les résultats de l'état de l'art. Enfin, dans le cadre d'une enquête exhaustive, nous tentons de déterminer quels exemples utiliser dans les méthodes de relecture pour atténuer l'oubli catastrophique. Nous détaillons les aspects méthodologiques de chaque contribution et nous fournissons des preuves de nos contributions sur des ensembles de données tels que MNIST, SVHN, CIFAR-10 et CIFAR-100.