Modèles de gestes expressifs

par Quôc Anh Lê

Thèse de doctorat en Signal et images

Sous la direction de Catherine Pelachaud.

Le président du jury était Jean-Claude Martin.

Le jury était composé de Elisabetta Bevacqua, Tamy Boubekeur.

Les rapporteurs étaient Rachid Alami, Mohamed Chetouani.


  • Résumé

    Cette thèse présente un modèle computationnel qui génère des gestes expressifs communicatifs accompagnant la parole, pour un agent humanoïde. Notre travail de recherche est basé sur l'étude de gestes humains. Trois questions de recherche sont abordées dans cette thèse. Tout d'abord, des gestes humains sont représentés de telle manière qu'ils soient réalisables pour les différents agents humanoïdes. Un ensemble de propriétés d'un geste comme la forme de la main, la position du poignet, la trajectoire du mouvement, etc. est défini afin d'encoder les gestes. Deuxièmement, les gestes sont planifiés pour être synchronisé avec la parole. Notre modèle repose sur la relation temporelle entre les gestes et la parole, dans un discours, pour calculer le temps des gestes. Troisièmement, ces gestes sont rendus expressifs. Étant dépendants de la personnalité ou des états émotionnels actuels de l'agent, la variété de ces gestes s'effectue en modulant un ensemble de paramètres d'expressivité du geste. Le modèle a été conçu de telle sorte que ces processus soient autant que possible indépendants de la représentation d'un agent. Jusqu'à présent, notre modèle est utilisé pour contrôler les gestes des agents virtuels Greta et le robot humanoïde réel Nao.

  • Titre traduit

    Expressive gesture model


  • Résumé

    This thesis presents a computational model to generate expressive communicative gestures accompanying speech for a humanoid agent. Our research work is based on studies of human communicative gestures. Three research issues are addressed in this work. First, human gestures are encoded and reproduced in such a way that these gestures are realizable for different humanoid agents. A set of properties of a gesture such as hand shape, wrist position, movement trajectory, etc is used in order to encode gestures. Second, gestures are planned to be synchronized with speech. The model relies on the relationship between gestures and speech to schedule gesture timing. Third, these gestures are rendered expressively. Depending on the personality or the current emotional states of the agent, its gestures are varied by modulating a set of gesture expressivity dimensions. The model was designed in such a way that its processes are as much as possible independent of an agent’s embodiment. So far, this model has been used to control gestures of the Greta virtual agents and the Nao physical humanoid robot.


Il est disponible au sein de la bibliothèque de l'établissement de soutenance.

Consulter en bibliothèque

La version de soutenance existe

Où se trouve cette thèse\u00a0?

  • Bibliothèque : Télécom ParisTech. Bibliothèque scientifique et technique.
Voir dans le Sudoc, catalogue collectif des bibliothèques de l'enseignement supérieur et de la recherche.