Synthèse de texture dynamique sur objet déformables

par Geoffrey Guingo

Thèse de doctorat en Informatique

Sous la direction de Marie-Paule Cani et de Jean-Michel Dischler.


  • Résumé

    Dans les mondes virtuels, l'apparence des objets mis en scène est un point crucial pour l'immersion de l'utilisateur. Afin d'approximer les relations lumière-matière, une manière communément mise en place est d'habiller les objets de la scène avec des textures. Afin d'aider les artistes dans le processus de création, des méthodes de synthèse et d'édition de texture ont vu le jour. Ces méthodes se différencient par les gammes de textures synthétisables, et notamment par la prise en compte des textures hétérogènes qui sont un réel défi. Ces textures sont composées de plusieurs régions aux contenus différents, dont la répartition est régie par une structure globale. Chacune des zones correspond à un matériau différent ayant une apparence et un comportement dynamique propre. Premièrement, nous proposons un modèle additif de textures statiques, permettant la synthèse à la volée de textures hétérogènes de tailles arbitraires à partir d'un exemple. Cette méthode comprend un modèle de bruit gaussien variant spatialement, ainsi qu'un mécanisme permettant la synchronisation avec une couche de structure. L'objectif est d'améliorer la variété de la synthèse tout en préservant des détails plausibles à petite échelle. Notre méthode se compose d'une phase d'analyse, composée d'un ensemble d'algorithmes permettant d'instancier les différentes couches à partir d'une image d'exemple, puis d'une étape de synthèse temps réel. Au moment de la synthèse, les deux couches sont générées indépendamment, synchronisées et ajoutées, en préservant la cohérence des détails même lorsque la couche de structure est déformée afin d'augmenter la variété. Dans un second temps, nous proposons une nouvelle approche pour modéliser et contrôler la déformation dynamique des textures, dont l'implantation dans le pipeline graphique standard reste simple. La déformation est modélisée à la résolution des pixels sous forme d'un warping dans le domaine paramétrique. Cela permet ainsi d'avoir un comportement différent pour chaque pixel, et donc dépendant du contenu de la texture. Le warping est défini localement et dynamiquement par une intégration en temps réel le long des lignes de flux d'un champ de vitesse pré-calculé, et peut être contrôlé par la déformation de la géométrie de la surface sous-jacente, par des paramètres d'environnement ou par édition interactive. Nous proposons de plus une méthode pour pré-calculer le champ de vitesse à partir d'une simple carte scalaire représentant des comportements dynamiques hétérogènes, ainsi qu'une solution pour gérer les problèmes d'échantillonnage survenant dans les zones sur-étirées lors de la déformation.

  • Titre traduit

    Synthesis of dynamic textures on deformable objects


  • Résumé

    In virtual worlds, the objects appearance is a crucial point for users immersion. In order to approximate light-matter relationships, a common way is to use textures. To help artists during the creative process, texture synthesis and texture editing methods have emerged. These methods are differentiated by the ranges of synthesizable textures, and especially by taking into account the heterogeneous textures. These textures are composed of several regions with different contents, whose distribution is lead by a global structure. Each of the zones corresponds to a different material having a specific appearance and dynamic behavior. First, we propose an additive model of static textures, allowing on-the-fly synthesis of heterogeneous textures of arbitrary sizes from an example. This method includes a spatially varying Gaussian noise pattern, as well as a mechanism for synchronization with a structure layer. The aim is to improve the variety of synthesis while preserving plausible small details. Our method consists of an analysis phase, composed of a set of algorithms for instantiating the different layers from an example image, then a real-time synthesis step. During synthesis, the two layers are independently generated, synchronized, and added, preserving details consistency even when the structure layer is deformed to increase variety. In a second step, we propose a new approach to model and control the dynamic deformation of textures, whose implementation in the standard graphical pipeline remains simple. The deformation is modeled at pixels resolution in the form of a warping in the parametric domain. Making possible to have a different behavior for each pixel, and thus depending of texture content. The warping is locally and dynamically defined by real-time integration along the flow lines of a pre-calculated velocity field, and can be controlled by the deformation of the underlying surface geometry, by parameters of environment or through interactive editing. In addition, we propose a method to pre-compute the velocity field from a simple scalar map representing heterogeneous dynamic behaviors, as well as a solution to handle sampling problems occurring in overstretched areas at the time. deformation.