Apprentissage automatique profond appliqué à la reconnaissance visuelle par ordinateur : apprentissage d'architecture et non supervisé.

par Thomas Lucas

Projet de thèse en Mathématiques et Informatique

Sous la direction de Jakob Verbeek et de Karteek Alahari.

Thèses en préparation à l'Université Grenoble Alpes (ComUE) , dans le cadre de École doctorale mathématiques, sciences et technologies de l'information, informatique (Grenoble) , en partenariat avec Laboratoire Jean Kuntzmann (Grenoble) (laboratoire) et de LEAR : Learning and Recognition in Vision (equipe de recherche) depuis le 20-10-2016 .


  • Résumé

    Le paradigme de l'aprentissage profond remonte à la fin des années 50, mais les réseaux convolutionnels et profonds ont seulement récement permis de grands progrès en perception (reconnaissance d'image et de parole). Notre projet de thèse nous amennera à considérer principalement deux aspets de l'apprentissage profond. Le premier est l'apprentissage d'architecture: c'est un problème ouvert d'importance. L'espace des architectures neuronales est discret et exponentiellemnt large, et donc difficile à explorer en pratique. Le second est celui de l'aprentissage non supervisé, qui permet de mettre a profit des sources de données très grandes, au contraire de méthodes d'apprentissage qui requièrent un signal d'entrainement. Pouvoir utiliser des données ainsi permet de diminuer le besoin en données supervisées, et/ou d'augmenter les performances des models.

  • Titre traduit

    Deep neural networks for visual recognition tasks: Architecture learning and unsupervised learning


  • Résumé

    The paradigm of deep-learning dates back to the end of the late 50s, but convolutional and recurrent neural networks have only recently enables great progress in computer perception (vision and speech recognition). Our thesis project will lead us to consider chiefly two aspects of deep learning. The first is that of architecture learning: exploring the discreet, exponentially large space of neural architecture remains an open problem. It is of great importance, as this space is very costly to explore in practice. The second is that of unsupervised learning, which allows one to leverage virtually unlimited sources of data, contrarily to methods that require supervised training data that are in limited supply. This would act as a form of regularization to learn models from less supervised training data.