Thèse soutenue

L'Utilisation des Méthodes d'Apprentissage Profond au service de l’Édition d’Animation Faciale 3D
FR  |  
EN
Accès à la thèse
Auteur / Autrice : Eloise Berson
Direction : Renaud Séguier
Type : Thèse de doctorat
Discipline(s) : Signal, Image, Vision
Date : Soutenance le 22/01/2021
Etablissement(s) : CentraleSupélec
Ecole(s) doctorale(s) : École doctorale Mathématiques et sciences et technologies de l'information et de la communication (Rennes)
Partenaire(s) de recherche : Laboratoire : Institut d'Électronique et de Télécommunications (Rennes)
Jury : Président / Présidente : Edmond Boyer
Examinateurs / Examinatrices : Saïda Bouakaz, Damien Rohmer, Catherine Soladié, Nicolas Stoiber
Rapporteurs / Rapporteuses : Saïda Bouakaz, Damien Rohmer

Mots clés

FR  |  
EN

Résumé

FR  |  
EN

L’animation faciale vise à mouvoir des personnages virtuels afin de leur donner vie. Or, produire une animation convaincante qui trompe l’œil des humains, reste une tâche fastidieuse. Le développement des technologies de capture de mouvement ont facilité la génération d’animations de haute qualité. La promesse de ces technologies est de parfaitement capturer et retranscrire toute la subtilité des mouvements faciaux et du signal expressif et émotionnel qu'il diffuse. En pratique, même les systèmes les plus aboutis échouent à accomplir ce rôle parfaitement. Or, l’édition d’une animation reste un processus très coûteux qui requiert un savoir-faire et une grande quantité de travail pour répondre aux exigences de qualités attendues. Nous proposons d’améliorer le processus d’édition en mettant à profit les récentes méthodes d’apprentissage qui permettent de produire en grande quantité des animations convaincantes. Ces méthodes apprennent les caractéristiques et les spécificités des dynamiques du visage afin de les reproduire lors de la synthèse de nouvelles animations. Nous proposons une nouvelle méthode de filtrage d’animation qui apprend à nettoyer et même restaurer les dynamiques des différents paramètres d’animation. Nous proposons également de nouvelles possibilités de modifier une animation et de diriger sa synthèse par des paramètres de contrôle originaux, intuitifs et sémantiques. Nous présentons un système, robuste et interactif, permettant de piloter des mouvements du visage à partir de peu de signaux temporels et intuitifs. Enfin, nous exploitons les méthodes génératives pour créer une méthode de synthèse d’animation, non ou faiblement supervisée.