Accueil Forum Blog Jobs
Tracer de nouvelles voies pour les cinéastes sur «The Mandalorian»
14/03/20 par vl4d

Epic Games, en collaboration avec Jon Favreau et ILM, a tracé une nouvelle voie de production pour la saison 1 de `` The Mandalorian '' en faisant évoluer la technologie en temps réel pour répondre aux demandes complexes de tournage de scènes et d'acteurs. Ayant passé les 15 dernières années en tant qu'ingénieur de jeu et responsable technique chez Epic Games, j'ai appris de première main que les boucles de rétroaction rapides sont essentielles pour des collaborations créatives réussies. L'itération rapide, la spontanéité et le sens d'un but commun qui découlent d'une collaboration étroite sont irremplaçables. Chez Epic, nous nous efforçons de donner le plus de temps possible à nos équipes créatives.


Donc, quand j'ai commencé pour en savoir plus sur le cinéma, il était surprenant de réaliser qu'il était courant que les services critiques d'une production traditionnelle à effets visuels lourds soient décentralisés. Des semaines ou des mois peuvent s'écouler entre le travail de mise en scène des créateurs clés et le travail de post-production pour réaliser pleinement la vision. Cela semblait être une opportunité où la technologie de moteur de jeu en temps réel pourrait faire une réelle différence.

Heureusement, Jon Favreau est très en avance sur la courbe. Sa vision pionnière du tournage de The Mandalorian a été l'occasion de renverser le paradigme du cinéma conventionnel.


Mandalorian_HUC-003903_R.pip.jpg

Lorsque nous avons rencontré Jon pour la première fois, il était ravi d'apporter plus d'interactivité et de collaboration en temps réel dans le processus de production. Il était clair qu'il était prêt à expérimenter de nouveaux flux de travail et à prendre des risques pour atteindre cet objectif. En fin de compte, ces premières discussions ont évolué vers une méthodologie de production virtuelle révolutionnaire: filmer la série sur une scène entourée de murs LED massifs affichant des décors numériques dynamiques, avec la capacité de réagir et de manipuler ce contenu numérique en temps réel pendant la production en direct. En collaboration avec ILM, nous avons élaboré des plans sur la façon dont les pièces s'emboîtent. Le résultat a été un nouveau système ambitieux et une suite de technologies à déployer à une échelle qui n'avait jamais été tentée pour la nature trépidante de la production télévisuelle épisodique.


Mandalorian_HUC-027199.pip.jpg

Au début de la prise de vue, Unreal Engine fonctionnait sur quatre PC synchronisés pour piloter les pixels sur les murs LED en temps réel. Dans le même temps, trois opérateurs Unreal pouvaient manipuler simultanément la scène virtuelle, l'éclairage et les effets sur les murs. L'équipe à l'intérieur du volume LED a également pu contrôler la scène à distance depuis un iPad, en travaillant côte à côte avec le réalisateur et DP. Ce flux de production virtuel a été utilisé pour filmer plus de la moitié de la saison 1 de The Mandalorian , permettant aux cinéastes d'éliminer les prises de vue de lieux, de capturer une quantité importante de plans VFX complexes avec un éclairage et des reflets précis à huis clos, et itérer sur des scènes ensemble en temps réel sur le plateau. La combinaison des capacités en temps réel d'Unreal Engine et des écrans LED immersifs a permis une flexibilité créative jusque-là inimaginable.


Mandalorian_HUC-058679.pip.jpg

The Mandalorian n'était pas seulement un défi inspirant, mais un banc d'essai puissant pour développer des outils éprouvés en production qui profitent à tous les utilisateurs d'Unreal Engine. Nos outils de collaboration multi-utilisateurs en étaient une grande partie, ainsi que le système nDisplay pour permettre à un cluster de machines de co-rendre de manière synchrone des images massives en temps réel, et notre système de composition en direct qui permettait aux cinéastes de voir des aperçus en temps réel. Nous nous sommes également concentrés sur les capacités d'interface avec le moteur à partir de sources externes, telles que l'enregistrement de données de prise dans Sequencer ou la manipulation de l'environnement de mur LED à partir de l'iPad. Toutes ces fonctionnalités sont disponibles dès maintenant en 4.24 ou bientôt en 4.25.

FEED_THUMB_Mandalorian_V1.jpg
 
En fin de compte, faire partie de The Mandalorian Saison 1 a été l'un des moments forts de ma carrière - l'étendue de ce que nous avons pu réaliser avec la technologie en temps réel ne ressemblait à rien d'autre travaillé. Donner aux cinéastes comme Jon Favreau, le producteur exécutif et réalisateur Dave Filoni, le superviseur des effets visuels Richard Bluff, les cinéastes Greig Fraser et Barry Baz Idoine, et les réalisateurs épisodiques la liberté et les opportunités de prendre des décisions créatives à la volée, favorisant la collaboration en direct entre tous les départements, et laisser tout le monde voir sa vision créative complète réalisée en quelques secondes, fut une expérience vraiment gratifiante. ILM, Golem Creations, Lux Machina, Fuse, Profile, ARRI et tous les incroyables collaborateurs de ce projet ont été très inspirants à travailler et je suis fier d'en avoir fait partie. Mais ce qui est encore plus excitant, c'est que les techniques et technologies que nous avons développées sur The Mandalorian ne sont que la partie émergée de l'iceberg - j'ai hâte de voir ce que l'avenir nous réserve.

Film & Télévision Le Mandalorien Nouvelles Production virtuelle Ensembles virtuels Guerres des étoiles Jeff Farris Jeu, 20 fév 2020 16:30:00 GMT Jeu, 20 fév 2020 16:30:00 GMT https://www.unrealengine.com/blog/forging-new-paths-for-filmmakers-on-the-mandalorian