Représentations parcimonieuses tensorielles pour le traitement de données massives

par Yassine Zniyed

Projet de thèse en Traitement du signal et des images

Sous la direction de Rémy Boyer.

Thèses en préparation à Paris Saclay , dans le cadre de Sciences et Technologies de l'Information et de la Communication , en partenariat avec L2S - Laboratoire des signaux et systèmes (laboratoire) , Signaux (equipe de recherche) et de Université Paris-Sud (établissement de préparation de la thèse) depuis le 01-10-2016 .


  • Résumé

    Dans cette thèse, d'abord du point de vue fondamental, les modèles et les algorithmes de tenseurs différents seront étudiés pour la modélisation et le traitement de grandes données. Certains liens avec le Machine Learning (ML) peut également être soulignés par une formulation du problème comme une optimisation convexe sous la contrainte de rang inférieur multilinéaire. Des questions fondamentales concernant les garanties de recouvrement et le nombre minimum de données nécessaires à l'achèvement tenseur seront abordés. En outre, des expressions de bornes CramérRao de l'erreur quadratique moyenne des estimations des paramètres seront établis en présence de bruit blanc gaussien additif. Enfin, des algorithmes pour calculer les décompositions de tenseurs seront également développés pour obtenir des performances raisonnables dans les scénarios où la puissance de traitement peut être distribué à travers un réseau d'unités de traitement, ou des capteurs. Du point de vue des applications, un exemple important est donné par la radioastronomie et les télécommunications.

  • Titre traduit

    Big data processing using sparse tensor representations


  • Résumé

    In this thesis, first from a fundamental perspective, different tensor models and algorithms will be studied for big data modelling and processing. Compact representations can be achieved by resorting to higher order singular value decomposition (HOSVD)-based models, tensor models with constraints, tensor train models, hierarchical Tucker models, and tensor networks. Some link with machine learning (ML) can also be underlined via a formulation of the problem as a convex optimization under the constraint of low multilinear rank. Fundamental questions concerning recovery guarantees and the minimum number of data needed for tensor completion will be addressed. Moreover, closed-form expressions of CramérRao bounds of the mean square error of the parameter estimates will be established in presence of additive white Gaussian noise. Finally, distributed algorithms to compute tensor decompositions will be also developed to achieve reasonable performance in scenarios where the processing power can be distributed across a network of processing units, or sensors. From an applications perspective, an important example is given by modern radioastronomy and telecommunications.