Thèse en cours

Inference statistique sémantique distribuée : limites fondamentales et algorithmes

FR  |  
EN
Auteur / Autrice : Romain Chor
Direction : Abdellatif ZaidiAbderrezak Rachedi
Type : Projet de thèse
Discipline(s) : Signal, Image, Automatique
Date : Inscription en doctorat le 03/01/2022
Etablissement(s) : Université Gustave Eiffel
Ecole(s) doctorale(s) : École doctorale Mathématiques, Sciences et Technologies de l'Information et de la Communication
Partenaire(s) de recherche : Laboratoire : Laboratoire d'informatique de l'Institut Gaspard Monge (1997-2009)
Equipe de recherche : LRT - Logiciels, Réseaux, Temps Réels

Résumé

FR  |  
EN

Les méthodes d'apprentissage statistique basées sur la théorie de l'information se sont beaucoup développées au cours de la dernière décennie grâce notamment aux travaux de Principe et d'autres; ainsi que la découverte du rôle que joue certaines mesures d'information (dont l'information mutuelle, l'entropie relative et d'autres) dans le contrôle du pouvoir de généralisation et/ou stabilité des algorithmes. Conjugué à l'avènement de la massification des données, cette évolution nécessite de développer de nouvelles méthodes d'estimation de ces mesures d'information, surtout en grande dimension où ce processus pose de nombreux challenges aussi bien sur l'aspect théorique qu'algorithmique. Le problème de l'identification et l'extraction des composantes d'un signal qui sont pertinentes pour une tâche d'inférence a lien avec l'aspect de la sémantique des données. Par exemple, pour un problème de classification d'images quelles sont les parties d'une image qui sont responsable d'une classification correcte ? Qu'est ce qu'un réseau de neurones doit apprendre pour pouvoir classer correctement ? En échangeant et en stockant uniquement les informations les plus actuelles et les plus pertinentes, la communication sémantique permet de diminuer la charge de trafic ainsi que le stockage dans le réseau. Dans cette thèse nous prévoyons de développer un cadre unifié pour la compression, la communication et la détection sémantique en concevant trois blocs de construction : i) extraction d'informations à partir de plusieurs capteurs ii) codage sémantique iii) fusion d'informations codées à plusieurs terminaux Nous exploitons principalement des outils de codage de source, d'un point de vue de théorie de l'information, à l'aide de mesures de distorsion logarithmique.