Suivi du mouvement d'objets articulés dans des séquences d'images vidéo

par Quentin Delamarre

Thèse de doctorat en Sciences de l'ingénieur

Sous la direction de Olivier Faugeras.

Soutenue en 2003

à Nice .


  • Résumé

    Nous proposons une méthode pour faire "comprendre" automatiquement à un ordinateur les mouvements d'un être humain filmé par des caméras vidéo, sachant qu'aucun marqueur n'a été placé sur celui-ci. Pour cela, nous avons choisi de nous intéresser à une première étape: l'estimation des variations des paramètres du mouvement d'une personne dans le temps. Nous abordons aussi la deuxième étape qui consiste à interpréter ces variations pour leur donner un sens. Des informations sont extraites des images vidéo et sont comparées à un modèle géométrique de l'objet suivi. Ces informations sont soit une segmentation de la silhouette de l'objet dans le cas où les caméras sont éloignées les unes des autres, soit une reconstruction tridimensionnelle de cet objet dans le cas où les caméras sont rapprochées. Nous expliquons pourquoi cette distinction est faite. Dans chacun des cas nous supposons connue la géométrie de l'objet en construisant un modèle 3D constitué de parties rigides simples articulées entre elles. La minimisation de l'erreur d'estimation des paramètres de position est effectuée en créant des forces et en résolvant les équations de la dynamique pour le modèle 3D articulé. Ces forces sont créées à partir des informations trouvées dans les images. Les différentes étapes de l'algorithme sont abordées: la calibration des caméras, la structure du modèle 3D, l'extraction d'informations des images, l'application de forces au modèle 3D, la dynamique de ce modèle et l'estimation et la prédiction de son mouvement dans la scène grâce à un filtre de Kalman. Enfin nous montrons des résultats encourageants et proposons des idées pour généraliser l'algorithme.

  • Titre traduit

    Motion tracking of articulated objects in video pictures sequences


  • Résumé

    We introduce you to a method designed to provide the computer, the ability to automatically understand the motions of a markerless filmed human in a multi-cameras environment. In a first step, we decide to estimate the time extended motions variations. Secondly, these variations are interpreted in order to give them significance. After being retrieved from the video pictures, information are compared to a tracked object geometric model. These information could be a segmentation of the object silhouette in case of far distant cameras from each other, or a three-dimensional reconstruction in case of near distant cameras from each other. We ll explain why this distinction is made. In each case, we assume that the object geometry is known thanks to the build of a 3D model made of simple articulated rigid parts. The position parameters error correction is done by creating forces and by resolving the equations of the 3D articulated model dynamic. Information found in the pictures allow us to create such forces. Different steps of the algorithm are introduced: how to calibrate the cameras, the 3D model structure, the information retrieve process, how to apply forces to the model, its dynamic, the estimation and anticipation of the motion in the scene thanks to a Kalman filter. Finally, we expose encouraging results and try to give ideas in order to generalize the algorithm.

Consulter en bibliothèque

La version de soutenance existe sous forme papier

Informations

  • Détails : 211 p.
  • Notes : Publication autorisée par le jury
  • Annexes : Bibliogr. p. [207]-211

Où se trouve cette thèse ?

  • Bibliothèque : Université Nice Sophia Antipolis. Service commun de la documentation. Section Sciences.
  • Non disponible pour le PEB
  • Cote : 03NICE4067bis
  • Bibliothèque : Université Nice Sophia Antipolis. Service commun de la documentation. Section Sciences.
  • Disponible pour le PEB
  • Cote : 03NICE4067
Voir dans le Sudoc, catalogue collectif des bibliothèques de l'enseignement supérieur et de la recherche.