RESEARCH
Key words
:
Computer graphics, global illumination, rendering of complex scenes, computer
vision, GPU , HDR, multiview rendering
My research activities are:
- Global illumination
- Realtime high fidelity rendering using the GPU
- Rendering of complex nature scenes: grass, trees, etc.
- Real time walkthrough in complex scenes through
networks
- Computer vision : 3D reconstruction, light source
extraction from real images, textures
In more details but in french:
Dans cette ce qui suit, je présente mes activités de recherche
récentes que je mène actuellement. Je ne parlerai pas de celles que
j’ai effectuées et que je ne poursuis pas telles que : rendu
d’objets naturels (herbe, arbres), modélisation de scènes 3D urbaines,
rendu sous-surfacique, etc. Mes travaux de recherche
actuels concernent l’informatique graphique, plus précisément : la
simulation d'éclairage, le rendu temps réel, le rendu volumique, le
rendu multivue, l’échantillonnage et l’imagerie HDR (High Dynamic
Range). Ces travaux sont résumés ci-après.
1. Simulation d'éclairage
Notre objectif est la création d’images de synthèse à haut niveau de
réalisme. Il s’agit d’explorer et de proposer de nouvelles méthodes et
algorithmes de synthèse d’images photoréalistes (dites méthodes
d’illumination globale) qui simulent les interactions entre la lumière
et la scène : inter-réflexions diffuses, spéculaires, diffusion dans
des milieux semi-transparents. Notre but principal est la recherche de
plus de réalisme et le calcul en temps réel d’images photoréalistes.
Nous proposons donc de nouvelles méthodes stochastiques (avec de
nouvelles méthodes d’échantillonnage) et progressives permettant
d’augmenter la vitesse de convergence des algorithmes (réduction du
temps de calcul) et de limiter la mémoire utilisée. En complément des
améliorations des méthodes de calcul, nos travaux portent également sur
la parallélisation des algorithmes et l’utilisation des cartes
graphiques (GPU) possédant une grande puissance de calcul. Nous nous
intéressons aussi aux images HDR (High Dynamic Range) et au rendu basé
image.
• Rendu temps réel haute fidélité et illumination globale
Notre objectif est le rendu temps réel haute fidélité. Autrement dit,
nous voulons à la fois effectuer une simulation d'éclairage globale
(prenant en compte l'éclairage indirect) dans une scène et
effectuer le rendu tout en respectant la contrainte de temps réel
en exploitant au maximum les performances des nouvelles cartes
graphiques.
Notre approche de simulation d'éclairage global utilise la méthode du
lancer de rayon s'appuyant sur la méthode de Monte Carlo. Elle consiste
en l'extension de la méthode de "cache d'éclairement" (irradiance
caching). Notre contribution a été de proposer de nouvelles
fonctions de bases (définies sur l'hémisphère et non pas la sphère)
pour représenter les luminances incidentes ainsi que les BRDF
(fonctions de réflectance) et la prise en compte d’objets dynamiques.
Cette représentation associée à une nouvelle méthode d'interpolation
basée sur les gradients sont les deux points importants de notre
approche de "cache de luminance". Plusieurs articles ont été publiés
sur ce thème (conférences de grande renommée et revues internationales
telles que IEEE). Un autre travail a consisté à obtenir un cache de
luminance indépendant du point de vue à partir d'une carte de
photons. Ce travail a été présenté à la conférence Pacific
Graphics. Nous avons appliqué pour la première fois la méthode de
Monte Carlo Bayesien à l’éclairage global. Ce travail a été publié dans
la revue Computer Graphics Forum en 2010.
• Rendu volumique et milieux participatifs
Les milieux participatifs sont des objets semi-transparents tels
que : fumée, brouillard, poussière, images médicales volumiques,
etc. L’objectif est de simuler les multiples diffusions de la lumière
dans ces milieux puis d’effectuer leur rendu très rapidement. Nous
avons proposé trois approches pour accélérer le calcul de ces multiples
diffusions et du rendu. Une première approche est basée sur la notion
de cache d’éclairement qui consiste à ne simuler les multiples
diffusions qu’à certains points du milieu (appelés enregistrements) et
de déduire l’éclairement en tout autre point par interpolation.
L’originalité de la méthode réside dans la manière de sélectionner
l’emplacement de ces enregistrements. Ce travail a été publié dans la
revue « The Visual Computer ». Une deuxième approche a
consisté à proposer une version parallèle de la méthode dite
« Light Propagation Map » sur GPU (carte graphique). Elle a
été présentée au symposium EGPVG (Eurographics Symposium on Parallel
Visualization and Graphics). La troisième approche est toute récente et
a été soumise à la conférence CGI (Computer Graphics International).
Elle permet une simulation d’éclairage progressive dans une scène
contenant à la fois des objets surfaciques et volumiques (milieux
participatifs). Tous les types d’interaction lumière/objet sont pris en
compte : multiples réflexions et réfractions, spécularité,
multiples diffusions, etc. La première et la troisième approches
ne permettent pas une simulation et un rendu temps réel. La troisième
est rapide et interactive car elle n’effectue que le rendu de milieux
participatifs. Si on approche les diffusions d’ordre strictement
supérieur à 1 par un terme appelé « Occultation Ambiante »
(ambient occlusion) alors on peut rendre un milieu en temps réel. C’est
ce que nous avons réalisé et publié au symposium EGSV (Eurographics
Symposium on Visualization).
2. Méthodes d’échantillonnage et illumination globale
Les techniques de type Monte Carlo Bayésien (MCB) sont largement
utilisées dans le domaine de l’apprentissage. Elles reposent sur la
connaissance a priori de la fonction d’intérêt (l’intégrant de
l’équation de luminance) pour améliorer les calculs effectués avec la
méthode de Monte Carlo. Nous avons utilisé MCB en illumination globale
afin d’optimiser l’échantillonnage des directions incidentes en tout
point pour lequel nous voulons calculer la luminance (gathering). Un
premier article, limité à des scènes 3D contenant que des objets
parfaitement diffus, a été publié dans la revue internationale Computer
Graphics Forum. Un autre, étendu aux objets brillants (glossy) a été
soumis à la revue IEEE TVCG. Nous avons proposé une autre approche
d’échantillonnage uniforme de la sphère et d’un lobe de BRDF (fonction
de réflectance). Cette approche utilise les suites de Fibonacci. Un
article a été soumis à la revue internationale Computer Graphics Forum.
3. Imagerie HDR
Nous sommes impliqués dans un projet FUI appelé Nevex. Dans le cadre de
ce projet notre tâche est de concevoir des algorithmes de tone mapping
(TM) pour des séquences vidéo. Une opération de tone mapping
consiste à convertir une image HDR (forte gamme de luminance) en une
image LDR (Low Dynamic Range, image pouvant être affichée sur un écran
classique dont la gamme de luminance est basse). Alors que les
principaux algorithmes de tone mapping ne s’appliquent qu’à une image
fixe, nous avons proposé un premier algorithme de tone mapping appliqué
aux séquences vidéo. Cet algorithme a été présenté à la conférence
SPIE. Un autre algorithme plus efficace a été soumis à une revue
internationale. Ce travail est réalisé en collaboration avec la société
TECHNICOLOR dans le cadre d’une bourse Cifre.
4. Placement de caméra, acteurs et lumières
Les avancées importantes dans la qualité et les performances des rendus
3D réalistes permettent aujourd'hui d'envisager la création de
séquences d'animation 3D en temps-réel ouvrant les portes à la
génération en temps-réel de films de qualité cinématographique. Or,
l'intégration de ces éléments cinématographiques en 3D (placement de
caméra, placement de lumières, placement des acteurs) nécessite la
formalisation d'une connaissance existant de façon empirique dans
l'industrie et la littérature. L'approche adoptée dans ce travail est
d'étudier à partir de données réelles (films), le couplage entre
cadrage, éclairage et placement d'acteurs au regard d'éléments de style
cinématographique (durées des plans, fréquence des plans, transitions
entre plans...). Cette étude fournira les moyens de proposer un modèle
calculatoire efficace permettant le placement des acteurs, caméra et
lumières pour mettre en scène automatiquement un scénario donné,
respectant des éléments de style spécifiés. Ce travail a commencé en
octobre 2012 avec la collaboration de l’équipe Mimetic de l’IRISA.
5. Rendu et Modélisation basés image
En collaboration avec Luce Morin, professeur à l’INSA de Rennes, nous
nous sommes aussi intéressés à la reconstruction de bâtiments à partir
de données de type GPS, SIG et vidéo. L'objectif est de raffiner
des modèles simples et géoréférencés de bâtiments extraits de bases de
données SIG. Ce raffinement est effectué grâce à un recalage
automatique entre ces modèles et la vidéo, le GPS fournissant une
information grossière de la position de la caméra avec laquelle la
vidéo a été prise. Une méthode d'extraction de textures prenant en
compte les problèmes d'occultation a été aussi proposée. Ce travail a
donné lieu à un article dans la revue Annals of Telecommunications. Il
n’est plus poursuivi dans l’équipe.
6. Rendu multivue
Les écrans autostéréoscopiques sont maintenant disponibles et
accessibles en terme de prix. Ils sont utilisés en réalité virtuelle et
dans les jeux vidéo. Ce type d’écran s’adapte à plusieurs utilisateurs
et ne nécessite pas de lunettes stéréoscopiques. Le rendu en temps réel
sur ce type d’écran pose de nombreux problèmes : génération en
temps réel de plusieurs vues de la même scène 3D, choix d’un motif
particulier d’échantillonnage nécessitant des procédures d’antialiasing
et par conséquent réduisant la gamme de profondeur.
Nous avons proposé des solutions pour le rendu multivue en temps réel
reposant sur le rendu basé image et prenant en compte les problèmes
d’occultation et d’apparition de nouveaux objets. Notre méthode
utilise une approche fréquentielle et des techniques liées aux Light
Fields. Elle n’a pas encore été publiée.