Réseaux de Neurones Profonds pour le Traitement d'Images: une approche par la Théorie des Matrices Aléatoires

par Lucie Neirac

Projet de thèse en Traitement du signal et des images

Sous la direction de Romain Couillet.

Thèses en préparation à Paris Saclay , dans le cadre de École doctorale Sciences et technologies de l'information et de la communication (Orsay, Essonne) , en partenariat avec L2S - Laboratoire des signaux et systèmes (laboratoire) et de CentraleSupélec (2015-....) (établissement de préparation de la thèse) depuis le 01-11-2016 .


  • Résumé

    Les réseaux de neurones profonds sont aujourd'hui omniprésents en ingénierie et notamment en traitement d'images. Même si leurs performances sont exceptionnellement élevées, elles demeurent encore mal comprises. Le sujet de cette thèse consiste en une approche orginale (à l'aide de l'outil de la théorie des matrices aléatoires) pour mieux maitriser ces réseaux. Plus précisément, l'objectif de la thèse consiste en l'étude théorique des performances de réseaux de neurones profonds pour le traitement d'images. Cette étude sera effectuée à l'aide de l'outil de la théorie des matrices aléatoires qui a récemment donné lieu à de nouvelles découvertes dans le domaine de l'apprentissage. De récents travaux [Louart, Couillet, 2017] ont notamment permis de démontrer que l'outil des matrices aléatoires permet d'appréhender (pour la première fois) les performances de réseaux de neurones élémentaires (jusqu'alors munis d'une seule couche et aux connections aléatoires). Ces résultats permettent d'anticiper les performances du réseau ainsi que d'en comprendre la structure fine. Parallèlement à ces travaux, de récentes découvertes ont établi que des réseaux de neurones convolutionnels, et donc adaptés à la reconnaissance d'images, peuvent très bien fonctionner lorsque les filtres convolutionnels sont aléatoires (au lieu d'être adaptés au problème). Même si évidemment moins performants que les réseaux adaptés, ces réseaux ont l'avantage d'être bien plus simples d'implémentation (ils contiennent en particulier moins d'hyperparamètres) et donnent lieu à une possibilité d'analyse accrue. L'objectif précis de la thèse sera de mettre en exergue ces deux facettes de la théorie récente des réseaux de neurones dans le but d'analyser, de comprendre, afin (de manière ultime) d'améliorer ces réseaux. Il sera demandé au candidat d'appendre à maitriser la théorie des matrices aléatoires ainsi que de coder afin de confronter (en Matlab ou en Python) les réseaux de neurones et résultats théoriques.

  • Titre traduit

    Deep Neural Network for Image Processing: a Random Matrix Approach


  • Pas de résumé disponible.