Thèse soutenue

Approche théorie de l’information à l’apprentissage statistique : codage distribué de sources sous mesure de fidélité logarithmique

FR  |  
EN
Auteur / Autrice : Yigit Ugur
Direction : Abderrezak Rachedi
Type : Thèse de doctorat
Discipline(s) : Signal, Image, Automatique
Date : Soutenance le 22/11/2019
Etablissement(s) : Paris Est
Ecole(s) doctorale(s) : École doctorale Mathématiques, Sciences et Technologies de l'Information et de la Communication (Champs-sur-Marne, Seine-et-Marne ; 2015-....)
Partenaire(s) de recherche : Laboratoire : Laboratoire d'informatique de l'Institut Gaspard Monge (1997-2009)
Jury : Président / Présidente : Michel Kieffer
Examinateurs / Examinatrices : Abderrezak Rachedi, Giuseppe Caire, Gerald Matz, Abdellatif Zaidi, David Gesbert, Aline Roumy
Rapporteurs / Rapporteuses : Giuseppe Caire, Gerald Matz

Mots clés

FR  |  
EN

Résumé

FR  |  
EN

Une question de fond, souvent discutée dans l’apprentissage de la théorie, est de savoir comment choisir une fonction de `bonne' perte qui mesure la fidélité de la reconstruction à l’originale. La perte logarithmique est largement utilisée comme critère de pénalité dans divers contextes, notamment le regroupement et la classification, la reconnaissance de formes, l'apprentissage et la prédiction, ainsi que le traitement d'images. Compte tenu du nombre élevé de recherches effectuées récemment dans ces domaines, la perte logarithmique devient une métrique très importante et sera l’axe principal en tant que métrique de distorsion dans cette thèse. Dans cette thèse, nous étudions une configuration distribuée, appelée problème de Chief Executive Officer (CEO) dans le cadre d’une mesure de distorsion de perte logarithmique. Plus précisément, les agents observent les versions bruitées d'une source distante indépendamment corrompues et communiquent indépendamment avec un décodeur ou un chef de la direction via des liaisons sans bruit à contrainte de débit. Le CEO a également sa propre observation bruyante de la source et souhaite reconstruire la source distante dans les limites du niveau de distorsion prescrit, où la distorsion induite est mesurée selon le critère de pénalité de perte logarithmique. Une des contributions principales de la thèse est la caractérisation explicite de la région de distorsion du taux du problème vectoriel du PDG gaussien, dans laquelle la source, les observations et les informations complémentaires sont conjointement gaussiennes. Pour la preuve de ce résultat, nous étendons d'abord résultat de Courtade-Weissman sur la région de distorsion des taux du problème de CEO discret sans mémoire au cas où le CEO a accès à un flux d'informations secondaires corrélé qui est tel que les observations des agents sont indépendantes conditionnellement compte tenu des informations secondaires et de la source distante. Ensuite, nous obtenons une borne externe sur la région du problème de vecteur du CEO gaussien en évaluant la limite extérieure du modèle discret sans mémoire au moyen d'une technique qui s'appuie sur l'identité de Bruijn et les propriétés des informations de Fisher. L'approche est similaire à technique de la délimitation externe d'Ekrem-Ulukus pour le problème de vecteur du CEO gaussien sous mesure de distorsion quadratique, pour lequel il était là trouvé généralement non serré; mais il est montré ici pour donner une caractérisation complète de la région pour le cas de mesure de perte logarithmique. L’application de nos résultats nous permet de trouver des solutions complètes de trois problèmes connexes: le problème du CEO du vecteur quadratique gaussien avec contrainte déterminante, le test d'hypothèses gaussiennes distribuées par vecteur contre le problème de l'indépendance conditionnelle et le problème de goulot d'étranglement d'information distribué gaussien de vecteur. Avec la pertinence connue de la mesure logarithmique de fidélité à la perte dans le contexte de l’apprentissage et de la prédiction, développer des algorithmes pour calculer les régions fournies dans cette thèse peut trouver une utilité dans diverses applications où l'apprentissage est effectué de manière distributive. Motivés par ce fait, nous développons deux algorithmes de type: i) algorithmes numériques itératifs de type Blahut-Arimoto pour les modèles discrets et gaussiens dans lesquels la distribution conjointe des sources est connue; ii) un algorithme de type inférence variationnelle dans lequel les mappages de codage sont paramétrés par des réseaux de neurones et la borne de variation approchée par échantillonnage de Markov et optimisé avec descente de gradient stochastique pour le cas où il n'y a qu'un ensemble de données de formation disponible (...)