Rendu stylisé de scènes 3D animées temps-réel

par Alexandre Bleron

Thèse de doctorat en Informatique

Sous la direction de Joëlle Thollot et de Thomas Hurtut.


  • Résumé

    Le but du rendu stylisé est de produire un rendu d'une scène 3D dans le style visuel particulier voulu par un artiste. Cela nécessite de reproduire automatiquement sur ordinateur certaines caractéristiques d'illustrations traditionnelles: par exemple, la façon dont un artiste représente les ombres et la lumière, les contours des objets, ou bien les coups de pinceau qui ont servi à créer une peinture. Les problématiques du rendu stylisé sont pertinentes dans des domaines comme la réalisation de films d'animation 3D ou le jeu vidéo, où les studios cherchent de plus en plus à se démarquer par des styles visuels originaux. Dans cette thèse, nous explorons des techniques de stylisation qui peuvent s'intégrer dans des pipelines de rendu temps-réel existants, et nous proposons deux contributions. La première est un outil de création de modèles d'illumination stylisés pour des objets 3D. La conception de ces modèles est complexe et coûteuse en temps, car ils doivent produire un résultat cohérent sous une multitude d'angles de vue et d'éclairages. Nous proposons une méthode qui facilite la création de modèles d'illumination pour le rendu stylisé, en les décomposant en sous-modèles plus simples à manipuler. Notre seconde contribution est un pipeline de rendu de scènes 3D dans un style peinture, qui utilise une combinaison de bruits procéduraux 3D et de filtrage en espace écran. Des techniques de filtrage d'image ont déjà été proposées pour styliser des images ou des vidéos: le but de ce travail est d'utiliser ces filtres pour styliser des scènes 3D tout en gardant la cohérence du mouvement. Cependant, directement appliquer un filtre en espace écran produit des défauts visuels au niveau des silhouettes des objets. Nous proposons une méthode qui permet d'assurer la cohérence du mouvement, en guidant les filtres d'images avec des informations sur la géométrie extraites de G-buffers, et qui élimine les défauts aux silhouettes.

  • Titre traduit

    Real-time stylized rendering of 3D animated scenes.


  • Résumé

    The goal of stylized rendering is to render 3D scenes in the visual style intended by an artist. This often entails reproducing, with some degree of automation, the visual features typically found in 2D illustrations that constitute the "style" of an artist. Examples of these features include the depiction of light and shade, the representation of the contours of objects, or the strokes on a canvas that make a painting. This field is relevant today in domains such as computer-generated animation or video games, where studios seek to differentiate themselves with styles that deviate from photorealism. In this thesis, we explore stylization techniques that can be easily inserted into existing real-time rendering pipelines, and propose two novel techniques in this domain. Our first contribution is a workflow that aims to facilitate the design of complex stylized shading models for 3D objects. Designing a stylized shading model that follows artistic constraints and stays consistent under a variety of lighting conditions and viewpoints is a difficult and time-consuming process. Specialized shading models intended for stylization exist but are still limited in the range of appearances and behaviors they can reproduce. We propose a way to build and experiment with complex shading models by combining several simple shading behaviors using a layered approach, which allows a more intuitive and efficient exploration of the design space of shading models. In our second contribution, we present a pipeline to render 3D scenes in painterly styles, simulating the appearance of brush strokes, using a combination of procedural noise and local image filtering in screen-space. Image filtering techniques can achieve a wide range of stylized effects on 2D pictures and video: our goal is to use those existing filtering techniques to stylize 3D scenes, in a way that is coherent with the underlying animation or camera movement. This is not a trivial process, as naive approaches to filtering in screen-space can introduce visual inconsistencies around the silhouette of objects. The proposed method ensures motion coherence by guiding filters with information from G-buffers, and ensures a coherent stylization of silhouettes in a generic way.