banner

Blog

May 11, 2023

Calculer l'univers des effets visuels

Comment l'industrie des effets visuels évolue avec les nouvelles technologies

Les films utilisent des effets visuels (VFX) pour améliorer et visualiser l'impossible, et créer des scènes qui ne pourraient pas être capturées avec un tournage en direct seul.

Les effets visuels sont rendus numériquement et les charges de travail sont traditionnellement exécutées sur site. Des groupes de créatifs s'asseyaient pour éditer image par image tandis que le bourdonnement des serveurs se faisait entendre depuis la pièce voisine.

Mais à mesure que les effets visuels deviennent de plus en plus détaillés et exigeants en termes de calcul, héberger un centre de données sur site pour chaque projet n'a plus de sens pour le secteur.

Qu'il s'agisse d'un projet particulièrement complexe qui nécessite beaucoup plus de puissance de calcul que ce que l'installation sur site peut fournir, ou d'une nouvelle technologie qui nécessite que le calcul soit sur le plateau de tournage lui-même, l'empreinte informatique VFX se diversifie du cloud au Bord.

"Sur chaque production cinématographique, de nombreuses personnes travailleront et elles auront toujours besoin d'accéder à un pool central de stockage pour extraire les médias afin que le travail reste synchronisé, et c'est ainsi que cela se passe depuis que les gens ont compris comment utiliser le stockage réseau pour montage vidéo », a expliqué Arvydas Gazarian, architecte de solutions chez Evolutions TV, une maison de post-production basée à Londres Soho.

Pour cette raison, une grande partie de l'informatique d'Evolutions reste sur site pour s'assurer que tous les éditeurs peuvent accéder à la bonne version du métrage.

"Nous avons 9 pétaoctets de médias sur 4 de nos sites. Il y a au moins 1 pétaoctet dans chaque site, avec une distribution moyenne de 200 To par projet", a ajouté Gazarian.

Mais au-delà, Evolutions se tournera vers un service de type cloud, appelé European Raid Arrays (ERA). ERA propose un poste de travail et un système de stockage basés sur le cloud spécialement conçus pour les charges de travail des médias, de la diffusion et de la post-production. Ici, Evolutions dispose d'environ quatre pétaoctets de stockage et de près de 130 postes de travail dans un centre de données, auquel les emplacements sur site sont reliés via une ligne de 40 gigabits.

L'industrie des effets visuels est naturellement « piquante », avec des augmentations soudaines et spectaculaires de la demande, a expliqué Gazarian. Un nouveau projet sera mis en service et le calcul nécessaire se multipliera soudainement, ce qui amènera parfois les exigences en dehors de ce qui peut physiquement être hébergé sur site.

Le recours à un service de type cloud pour les effets visuels devient de plus en plus courant et a été particulièrement médiatisé lorsque Weta FX a annoncé qu'Avatar : The Way of Water était entièrement rendu sur le cloud Amazon Web Services (AWS).

Weta FX comptait en moyenne environ 500 itérations par prise de vue, chacune contenant des milliers d'images. Le rendu de chaque image a pris 8 000 heures de thread ou la puissance combinée de 3 000 processeurs virtuels dans le cloud pendant une heure. Au total, l'équipe a exécuté 3,3 milliards d'heures de thread sur 14 mois sur AWS.

Selon l'entreprise, la réalisation de cet objectif sur site nécessiterait que l'entreprise obtienne un permis de construire du conseil local pour étendre physiquement son centre de données. Le producteur Jon Landau a déclaré : « La différence lorsque nous sommes passés au cloud était vraiment palpable. Nous n'aurions pas fini sans le soutien que nous avons obtenu d'AWS.

Il n'est plus rare maintenant que les maisons de post-production empruntent cette voie et créent des clusters temporaires dans le cloud pour aider à gérer les charges de travail. Mais ces charges de travail continuent de devenir plus difficiles à gérer pour les maisons de post-production.

En ce qui concerne la post-production et les effets visuels, une puissance GPU accrue et une meilleure résolution se traduisent simplement par des simulations plus crédibles, et avec des options telles que le déplacement de la charge de travail vers le cloud disponible, il s'agit simplement d'être prêt à jeter de l'argent sur le problème.

En attendant, la plupart des maisons d'effets visuels constateront qu'une solution informatique hybride d'informatique sur site et en nuage fera l'affaire pour une chronologie de post-production traditionnelle. Mais le secteur s'éloigne du « traditionnel ». Tous les effets visuels ne sont plus réalisés en post-production

La montée en puissance des effets visuels intégrés à l'appareil photo nécessite davantage de traitement en temps réel, voire avant le début du tournage.

John Rowe, responsable des effets visuels chez Boomsatsuma, une université dédiée à tout ce qui concerne la post-production, a expliqué le concept relativement nouveau des effets visuels intégrés à l'appareil photo (ICVFX) à DCD.

Cette approche des effets visuels change fondamentalement le pipeline. La simulation n'est plus faite en post, elle est faite avant même que le tournage ne commence, et utilise le même type de serveurs que nous voyons dans les jeux vidéo qui permettent un rendu en temps réel. Dans la majorité des cas, cela implique d'utiliser l'Unreal Engine d'Epic Games.

Rowe avait travaillé avec des étudiants ce jour-là, créant un tournage où la toile de fond simulée d'une attaque de dinosaure se déroulait derrière les acteurs en temps réel.

"Vous amenez votre environnement dans un studio et vous le jouez sur un écran, puis vous mettez vos acteurs devant et vous les filmez", a expliqué Rowe.

"La caméra doit être synchronisée avec le moteur du jeu et elle utilise un processeur vidéo pour le faire. Il y a beaucoup d'ordinateurs et plusieurs autres personnes impliquées dans cette technique et tout doit s'imbriquer.

"L'écran lit votre environnement via un moteur de jeu afin que vous puissiez regarder autour de l'environnement et l'afficher sur l'écran, que vous synchronisez ensuite à l'aide d'une autre partie du même moteur de jeu pour le relier à la caméra de l'ordinateur. Alors, quand vous déplacez réellement la caméra, celle de la simulation se déplace en même temps, à l'aide d'un système de suivi et de capteurs répartis dans le studio."

L'une des sociétés qui a été la pionnière de l'utilisation d'ICVFX est Lux Machina. Lux Machina est à l'origine des graphismes bien connus de films comme The Irishman et de la série télévisée The Mandalorian, entre autres.

Les scènes Prysm de Lux Machina sont fondamentalement des mondes entièrement nouveaux, a déclaré David Gray, directeur général de Lux Machina Consulting, à DCD.

"La scène londonienne fait 74 mètres d'écran autour, soit 26 000 pixels de large sur 2 800 pixels de haut. Le mur à lui seul a une résolution neuf fois supérieure à celle du 4K, et cela n'inclut pas le plafond."

Non seulement il s'agit d'une quantité de traitement incompréhensible, mais elle doit également être rendue en temps réel, ce qui signifie qu'elle doit avoir lieu sur place à la périphérie de la production.

"En raison des résolutions et des données que nous traitons en ce moment. Il n'est tout simplement pas possible [d'exécuter sur le cloud] avec cette taille de volume LED. Nous utilisons donc généralement une dorsale de 100 Go avec une machine de 25 Go pour être en mesure d'extraire les données entre eux », a expliqué Gray.

Mais s'il s'agit de génération en temps réel, il ne s'agit pas de création de contenu en temps réel. Il reste encore beaucoup d'heures consacrées à la production de graphiques en amont. L'éclairage, la génération des actifs et leurs textures sont tous effectués de manière préventive. Selon Gray, cela est à bien des égards plus éprouvant qu'un pipeline traditionnel, car tout doit être optimisé. Alors pourquoi le faire ?

La raison en est que les Prysm Stages sont des environnements entièrement contrôlables. Les images peuvent être optimisées et perfectionnées, et l'éclairage parfaitement reproduit en une seconde. Les réalisateurs de films seront obsédés par le concept de «l'heure dorée», cette brève période de temps chaque jour où la lumière naturelle est si belle qu'elle est presque éthérée. Mais avec un Prysm Stage, « l'heure d'or » peut devenir un jour d'or, voire une semaine d'or.

ICVFX modifie considérablement la planification de l'équipe de production. Par exemple, dans des environnements de production typiques, l'équipe d'éclairage ne se présentera pas tant que le tournage final ne sera pas prêt à commencer. Avec ICVFX, l'éclairage peut être disponible dès les premiers tirs d'essai, à peu de frais supplémentaires.

"Avec ICVFX, s'il y a un manque de talent" humain ", nous pouvons utiliser Unreal Engine et produire un éclairage cinématographique avec", a déclaré Junaid Baig, vice-président du rendu et de la recherche et du développement chez Lux Machina.

Cette approche VFX frontale est nouvelle dans l'industrie et prend un certain temps à ceux qui y travaillent pour se faire une idée. Normalement, vous regarderiez un plan et décideriez ensuite de l'éclairage nécessaire, mais ICVFX a besoin que vous décidiez de l'éclairage avant même de voir les acteurs dans la pièce. Pour contourner ce problème, des conversations significatives ont lieu avant le début du tournage pour vraiment comprendre la vision du réalisateur.

Il y a certaines choses qu'ICVFX ne peut pas réaliser. Par exemple, une explosion ou un souffle convaincant serait difficile.

"L'Unreal Engine ne peut pas vraiment faire cela d'une manière qui aurait l'air convaincante", a déclaré Baig, "Donc, vous filmeriez tout le reste avec ICVFX, puis ajouteriez l'explosion plus tard comme une forme traditionnelle de VFX. De cette façon, vous feriez seulement besoin de deux équipes - l'équipe ICVFX et le poste. Vous n'auriez pas besoin de l'éclairage ou de l'équipe de construction pour que cela se produise physiquement.

Pour réaliser ICVFX, Lux Machina utilise en moyenne 24 machines de rendu avec deux GPU chacune - dans ce cas, des Nvidia RTX 6000 - ainsi que divers câbles à large bande passante. Pour que cela se produise en temps réel, puis se reflète sur les scènes LED, plus vous êtes proche du bord, mieux c'est.

"Les artistes VFX ne pensent pas vraiment à la vitesse, ils pensent à la qualité", a déclaré Baig. "Cela doit être fait en au moins 24 images par seconde. Dans un pipeline VFX traditionnel, vous pouvez même utiliser des textures 16K. Mais si vous essayez de l'exécuter via un moteur Unreal, ou n'importe quel moteur de rendu basé sur GPU, ça va planter Ainsi, avec ICVFX, vous équilibrez constamment la qualité par rapport à la qualité du calcul Edge. »

La puissance requise pour cela est importante mais n'est amplifiée que par les exigences de la scène elle-même. Selon le site Web de Prysm Stages, l'espace de production scénique s'étend sur 7 700 pieds carrés, qui est entièrement recouvert de dalles LED utilisées pour produire des images avec une résolution aussi grande que 22 176 x 3 168 pixels sur le mur arrière principal.

"Cela consomme beaucoup d'énergie et le bâtiment doit être préparé pour accueillir cette énorme structure. La chaleur est un gros problème, et vous devez trouver des moyens de répartir la chaleur, et la salle des serveurs elle-même génère beaucoup de bruit."

Pour cette raison, Lux Machina stocke ses serveurs dans une pièce extérieure isolée avec de nombreux équipements de refroidissement. Pour les tournages qui ne sont pas hébergés sur les propres scènes de Lux, cette salle de serveurs devra être créée sur le nouveau plateau.

Que les entreprises VFX utilisent un centre de données sur site, exécutent des charges de travail dans le cloud ou créent un centre de données à la périphérie du plateau de tournage, ce qui est cohérent dans tout le secteur, c'est que la puissance de calcul nécessaire pour obtenir les effets souhaités augmente. , et il ne le fait pas progressivement.

Les résolutions augmentent à un rythme exponentiel. Les simulations sont plus "assez bonnes pour raconter l'histoire?" mais une simulation presque parfaite de la vie réelle, générée à partir d'une technologie actuelle moins que parfaite.

Que ce soit en post ou en pré-production, la visualisation de l'impsslbe est devenue de plus en plus virtuelle.

PARTAGER