Techniques d'apprentissage pour le contrôle adaptatif multi-niveaux du calcul distribué

par Maxime Mirka

Projet de thèse en SYAM - Systèmes Automatiques et Micro-Électroniques

Sous la direction de Gilles Sassatelli et de Abdoulaye Gamatie.

Thèses en préparation à Montpellier , dans le cadre de École Doctorale Information, Structures, Systèmes (Montpellier ; 2015) , en partenariat avec Laboratoire d'informatique, de robotique et de micro-électronique (Montpellier) (laboratoire) et de Département Microélectronique (equipe de recherche) depuis le 01-10-2018 .


  • Résumé

    L'essor des techniques et algorithmes d'apprentissage (Machine Learning) et leur utilisation dans des domaines de plus en plus variés montrent des capacités souvent surprenantes; dans l'interprétation des données d'entrée et la capacité de construire de représentations abstraites pertinentes (apprentissage supervisé), mais aussi dans le contrôle dynamique de systèmes complexes (apprentissage par renforcement). Les réseaux de neurones récurrents (RNN) et en particulier les LSTM (Long Short Term Memory) ont la capacités de détecter et prédire l'occurence de séries temporelles complexes, et sont actuellement considérées dans l'équipe ADAC pour détecter des motifs dans l'exécution de tâches dans des systèmes multicoeurs. Ce sujet de thèse ouvert s'appuie sur l'expérience capitalisée dans l'équipe ADAC sur le domaine de l'apprentissage et porte sur l'exploitation, la combinaison multi-niveaux et la spécialisation de ces techniques au sens large du terme pour la prévision, l'estimation et le contrôle dynamique de systèmes de calcul au sens de diverses grandeurs pertinentes dont notamment la consommation énergétique. Les techniques proposées ont vocation à être multi-niveaux et pourront à ce titre être appliquées à l'échelle d'un système embarqué ou de ses divers sous-composants mais aussi à l'échelle système distribué, comme par exemple un cluster de calcul.

  • Titre traduit

    Machine learning techniques for multi-level and adaptive control in distributed compute systems


  • Résumé

    Machine Learning is growingly popular and finds applications in a number of domains, showing in some cases impressive performance levels. In supervised learning, deep networks have been shown to be capable of constructing high-level representations out of raw input patterns. Some other network models such as recurrent neural networks, and in particular LSTMs (Long Short Term Memory) have the capability of detecting and predicting non-trivial patterns and are currently considered for multicore runtime systems. The Ph.D. topic builds on the local expertise in machine learning and aims at exploring and proposing novel multi-level online control techniques for bettering the control of compute systems with optimization goals such as raw performance or energy efficiency. Targeted techniques will be applied to sub- multicore system at various architectural levels, all the way up to distributed systems such as compute clusters.