En 2020, la série The Mandalorian a montré au monde entier ce que le tournage virtuel pouvait accomplir. Les acteurs jouaient devant un mur LED circulaire de 20 mètres qui affichait des décors 3D en temps réel. Plus besoin de fond vert. Plus besoin de deviner l'éclairage en post-production. Le décor existait physiquement sur le plateau.
Depuis, la réalité virtuelle s'est infiltrée dans chaque étape de la fabrication d'un film. De la prévisualisation au rendu final, en passant par la distribution en salles immersives. Voici comment, concrètement.
Le tournage virtuel sur mur LED
Le principe de la Virtual Production
Le tournage virtuel (ou Virtual Production, VP) repose sur un écran LED courbe qui enveloppe le plateau. Un moteur 3D (Unreal Engine, dans la plupart des cas) projette les décors en temps réel. Quand la caméra bouge, la perspective du décor s'adapte. L'illusion est si précise que les reflets sur les costumes et les visages des acteurs correspondent exactement à l'environnement affiché.
ILM (Industrial Light & Magic) a baptisé son système StageCraft. Il a été utilisé sur The Mandalorian, Obi-Wan Kenobi, Thor: Love and Thunder et The Batman. Le plateau de Manhattanville (Los Angeles) mesure 23 mètres de diamètre pour 6 mètres de haut. Un volume suffisant pour filmer des scènes de dialogue, des poursuites en véhicule et des séquences d'action sans quitter le studio.
Les gains concrets pour la production
Le fond vert classique exige un travail de composition en post-production. Chaque plan doit être retouché, pixel par pixel. Avec le mur LED, le décor est capturé directement par la caméra. Le plan est quasi définitif dès le tournage.
- Réduction de 20 à 30 % des coûts de post-production sur les films utilisant la VP (estimation ILM/Epic Games, 2023)
- Suppression des déplacements sur site pour les décors exotiques ou inaccessibles
- Contrôle total de l'éclairage et de la météo, tournage possible 24h/24
- Les acteurs voient le décor autour d'eux, leurs réactions sont plus naturelles
Chiffre clé
Le volume LED d'ILM StageCraft affiche des décors à une résolution de 14 000 x 4 000 pixels. Les panneaux LED atteignent un pitch de 2,8 mm, suffisant pour tromper la caméra et l'oeil humain en même temps.
Prévisualisation en temps réel avec un casque VR
Explorer le film avant de le tourner
La prévisualisation (previs) existe depuis les années 2000. Les studios créaient des animatiques sommaires pour planifier les séquences complexes. Avec la VR, le réalisateur enfile un casque et entre physiquement dans la scène. Il place les caméras, ajuste les angles, teste les mouvements. Tout se fait en temps réel dans un environnement 3D interactif.
Jon Favreau a utilisé ce procédé pour Le Roi Lion (2019). Avant le moindre rendu, il marchait dans la savane virtuelle avec un casque HTC Vive, choisissait ses cadres et dirigeait ses « acteurs » numériques. Le film a rapporté 1,66 milliard de dollars au box-office mondial.
Le workflow en previs VR
Le processus suit quatre phases. D'abord, l'équipe modélise les décors en 3D basse résolution. Ensuite, les assets sont importés dans un moteur temps réel (Unreal Engine ou Unity). Le réalisateur explore les décors en VR, place les caméras virtuelles et enregistre ses plans. Enfin, l'équipe technique exporte les données de cadrage vers le département de tournage ou d'animation.
En pratique, le gain de temps est mesurable. Sur un film à effets visuels, la previs VR réduit le nombre de prises inutiles sur le plateau. Le directeur de la photographie arrive avec des plans déjà validés. Le storyboard devient un espace en trois dimensions que toute l'équipe peut parcourir.
Effets spéciaux et rendu final
La capture de performance en immersion
La capture de mouvement (motion capture) enregistre les gestes d'un acteur pour les transposer sur un personnage numérique. La VR ajoute une couche. L'acteur porte un casque et voit le monde virtuel dans lequel son personnage évolue. Il réagit à un environnement visible, pas à des repères au sol dans un studio vide.
Andy Serkis a popularisé la performance capture avec Gollum (Le Seigneur des Anneaux) puis Caesar (La Planète des Singes). Les studios comme Weta Digital et Digital Domain intègrent maintenant la VR dans leurs pipelines de capture. L'acteur voit son avatar en temps réel, ajuste son jeu, corrige ses expressions. La qualité du résultat augmente parce que l'interprète comprend visuellement ce que le spectateur verra.
Le rendu en temps réel vs le rendu classique
| Critère | Rendu classique (ferme de calcul) | Rendu temps réel (Unreal/Unity) |
|---|---|---|
| Temps par image | Minutes à heures | Millisecondes |
| Qualité maximale | Photoréalisme absolu | Photoréalisme approché (Lumen, Nanite) |
| Itérations créatives | Lentes (relancer le rendu) | Immédiates (WYSIWYG) |
| Coût infrastructure | Élevé (serveurs GPU) | Modéré (station de travail) |
| Usage plateau | Non | Oui (murs LED, previs) |
Le rendu temps réel ne remplace pas encore les fermes de calcul pour le plan final d'un blockbuster. Mais il accélère tout le processus créatif en amont. Les décisions se prennent plus tôt, les erreurs se corrigent avant qu'elles ne coutent cher.
Vidéo 360 et cinéma immersif
Un format narratif à part entière
La vidéo 360 connecte le spectateur à un environnement dans sa totalité. Il porte un casque VR et regarde où il veut. Il n'y a plus de cadre. Le réalisateur doit repenser sa mise en scène. Comment guider le regard sans bordure d'écran ? Comment créer du suspense quand le spectateur peut se retourner ?
Des réalisateurs ont relevé le défi. Alejandro González Iñárritu a présenté Carne y Arena à Cannes en 2017, une expérience VR sur les migrants à la frontière mexicaine. Le projet a reçu un Oscar spécial. Depuis, les festivals de Venise, Tribeca et Sundance programment des sections VR chaque année.
Les caméras et le workflow
Le tournage en 360 utilise des rigs de caméras spécifiques. L'Insta360 Pro 2 capture en 8K stéréoscopique. La Kandao Obsidian Pro filme en 12K. Pour les productions haut de gamme, des rigs sur mesure assemblent six à huit caméras RED ou ARRI synchronisées.
Le montage suit un pipeline différent du cinéma traditionnel. Les rushes sont assemblés (stitching) pour former une sphère continue. L'étalonnage doit rester homogène sur 360 degrés. Le son est spatialisé en ambisonique pour suivre les mouvements de tête du spectateur. Chaque étape demande des outils et des compétences spécifiques. Notre studio vidéo VR 360 accompagne les entreprises dans la production de ces contenus immersifs.
Expérience spectateur et distribution
Les salles immersives
À Paris, MK2 a inauguré en 2020 un espace dédié au cinéma VR dans son complexe du 13e arrondissement. Les spectateurs réservent un créneau, enfilent un casque Meta Quest et visionnent des films VR sélectionnés. La séance dure entre 15 et 45 minutes selon le programme. Le concept s'est étendu à Amsterdam et Barcelone.
D'autres lieux misent sur l'expérience physique. PHI Centre à Montréal propose des installations où le spectateur marche librement dans un espace de 200 m². Il porte un casque et un sac à dos contenant le PC. Les murs, le sol, la température changent en fonction de la scène. L'immersion dépasse le cadre visuel.
La distribution sur plateformes
Le Meta Quest Store propose une section « Cinéma et documentaire » avec une cinquantaine de titres. Les prix varient de 4,99 € à 19,99 € par expérience. Arte a diffusé plusieurs documentaires en VR accessibles gratuitement. Le festival de Venise publie ses sélections VR sur une application dédiée pendant la durée du festival.
Le marché reste modeste comparé au cinéma traditionnel. Mais il progresse chaque année. Le nombre de casques VR vendus dans le monde dépasse les 10 millions d'unités par an depuis 2022. Plus d'yeux potentiels, plus de contenus produits.
Limites actuelles et perspectives
Ce qui freine encore l'adoption
Le coût d'un plateau LED StageCraft dépasse les 15 millions de dollars. Seuls les grands studios peuvent se le permettre. Les productions indépendantes et les films français n'ont pas accès à ces infrastructures, sauf en location ponctuelle.
Côté spectateur, le casque VR reste un frein. Il isole. Il peut provoquer des nausées après 30 minutes chez certaines personnes. Le confort a progressé (le Meta Quest 3 pèse 515 grammes, contre 600 grammes pour le Quest 2) mais l'expérience ne rivalise pas encore avec le fauteuil d'une salle de cinéma pour une séance de deux heures.
Les pistes d'avenir
Les volumes LED deviennent plus accessibles. Des studios comme Dark Matters (Paris) et Garden Studios (Londres) proposent des plateaux VP en location à la journée. Le tarif descend sous les 10 000 € par jour, ce qui ouvre la porte aux publicités, clips musicaux et courts-métrages.
Les casques VR gagnent en légèreté et en définition. L'Apple Vision Pro affiche une résolution de 23 millions de pixels par oeil. Les prochaines générations de casques Meta et Samsung promettent des optiques pancake plus fines et des FOV plus larges.
Pour le cinéma français, la VR reste un terrain d'expérimentation encore peu exploré. Les courts-métrages VR coutent entre 50 000 et 200 000 € à produire. Un budget accessible pour les fonds d'aide du CNC, qui finance déjà des projets immersifs via son programme « Expériences numériques ».
Ces expériences ont un équivalent dans l'événementiel corporate. Les musées et lieux culturels s'approprient aussi ces formats pour enrichir leur offre de médiation avec des contenus cinématographiques immersifs.