3D, VR, IA… Ces technologies qui révolutionnent la chaîne de production cinématographique

Bouleversée par l’apparition de nouvelles technologies de prises de vues et de rendu 3D, l’industrie du cinéma est en mutation. L'augmentation des puissances de calcul, mais aussi l'utilisation de moteurs 3D temps réel et de casques de réalité virtuelle procurent aux réalisateurs une agilité inédite pendant le tournage de films reposant toujours plus sur les effets visuels. Derrière ces innovations, éditeurs de logiciels et concepteurs de puces cherchent à tirer leur épingle du jeu… et tout s’accélère.

Partager
3D, VR, IA… Ces technologies qui révolutionnent la chaîne de production cinématographique

Il est devenu le plus grand succès des remakes en live-action des classiques de Disney. Le Roi lion, sorti le 17 juillet, est l’exemple-type de ces films qui concentrent les toutes dernières innovations. De la préproduction jusqu’aux salles obscures, il a bénéficié de la prévisualisation des scènes en 3D et en temps réel dès les premières esquisses… mais aussi d’un tournage facilité à l'aide de la réalité virtuelle au moment du choix des plans par le réalisateur. Un cas qui témoigne du bouleversement en cours dans cette industrie.

UNE ACCéLération du temps de calcul

L'essor des processeurs graphiques (GPU) est en grande partie à l'origine de cette percée. Historiquement, les images de synthèse ne pouvaient être calculées que dans des centres spécialisés appelés "render farms", qui reposaient majoritairement sur des processeurs généralistes (CPU). Ce processus prenait des heures et les professionnels des effets visuels étaient donc sujets à de longs délais entre chaque prévisualisation d'une image sur laquelle ils travaillaient, ce qui rallongeait d'autant leurs workflows. Mais à mesure que le progrès technologique a démultiplié les puissances de calcul, ils ont acquis une nouvelle agilité.

Les progrès des GPU ont rendu possible la prévisualisation sur les stations de travail, et les dernières cartes graphiques signées Nvidia, basées sur l’architecture Turing, permettent aujourd'hui d'y voir un rendu proche de la qualité finale en temps réel. Leur secret est une approche de calcul hybride qui combine les techniques de rendu temps réel traditionnelles avec le ray tracing. Cette méthode de rendu simule les rayons lumineux pour obtenir de meilleurs effets de lumière ou de reflets dans une image et requiert une très grande puissance de calcul. Elle est systématiquement utilisée dans les scènes de cinéma, mais la puissance requise la rendait jusqu'à présent très encombrante pour la prévisualisation.

Le ray tracing en temps réel devient possible

Avec Turing, Nvidia a dédié une partie de ces puces à l'accélération matérielle du ray tracing. Cependant, la qualité en reste insatisfaisante à l'état brut. L'entreprise y a donc combiné des techniques de deep learning pour améliorer par inférence la qualité de rendu final de façon transparente. "Le deep learning permet de faire du denoising [pour faire disparaître des impuretés de l’image, N.D.L.R.], de l’upscaling [pour augmenter la résolution de l’image, N.D.L.R.] et de l’anti-aliasing [pour lisser l’image, N.D.L.R.]. Cela sera bientôt le cas pour la colorimétrie", expose Nvidia.

Cette combinaison de technologies "accélère les temps de calcul et rend possible la prévisualisation immédiate de modèles 3D sur les stations de travail", explique Ben Fischer, en charge des projets médias et divertissement chez l'éditeur de logiciels Autodesk. Preuve de ce changement de paradigme, le moteur de rendu visuel Arnold, spécialisé dans le ray tracing et originellement basé sur CPU, a été réorienté pour tirer parti des GPU. Une première version est sortie en mars 2019.

Et les centres de calcul dans tout ça ? Ils vont aussi pouvoir bénéficier de ces gains de performance. D'après Nvidia, ses puces RTX offrent des performances 30 fois supérieures à un CPU pour le rendu précalculé – c'est-à-dire le rendu final qui sera à l'écran. Evidemment, hors de question de se passer des CPU, mais à coût égal, les capacités de calcul devraient considérablement augmenter grâce à cette accélération graphique. Du côté de la concurrence, si AMD n'est pas encore tout à fait prêt à faire du ray tracing sur GPU, il défie le géant Intel aussi bien sur les CPU pour serveurs (Epyc) que pour stations de travail (Ryzen).

Les technologies DU JEU VIDéO appliquées aU CINéMA

"Nous travaillons avec 20th Century Fox, qui a pu profiter en avance de nos processeurs Threadripper de seconde génération, souligne James Knight, directeur médias et divertissement chez AMD. Il s'agit des modèles 2990X disposant de 32 cœurs. Le besoin en render farms est donc faible, puisque les artistes effectuent la prévisualisation directement depuis leur bureau." Cette démarche a notamment permis d'adapter le système Simulcam, apparu lors du tournage d'Avatar, pour prévisualiser les effets en direct sur un plateau grâce à des moteurs de rendu... venus du monde du jeu vidéo.

Les moteurs 3D temps réel Unity (édité par Unity Technologies) et Unreal Engine (Epic Games) investissent le cinéma, après avoir conquis les développeurs de jeux vidéo. Ils permettent un rendu dynamique et des interactions qui simplifient le travail de prévisualisation. Et ils ont bien compris que la demande en instantanéité de toute la chaîne de production cinématographique fera leur affaire. "Le rendu final est à portée de clic", avance sur son site Unity, raillant au passage un ancien "monde où les réalisateurs sont habitués à ce que le rendu de chaque image nécessite plusieurs minutes, voire plusieurs heures". Autre avantage des moteurs de rendu temps réel : rapprocher les métiers de la chaîne de production. Un animateur peut ainsi collaborer avec un spécialiste de l'éclairage, et tous deux voient les changements implémentés en temps réel. La pré-production n'est plus mise à l'écart.

LA RéALITé VIRTUELLE s'invite SUR LES PLATEAUX DE TOURNAGE

L’innovation ne se limite pas à l’édition. Elle est déjà prégnante sur les plateaux. De plus en plus de films sont tournés sur fond vert dans leur quasi-intégralité. Une méthode de travail qui peut décontenancer les équipes de tournage... à commencer par les acteurs. Comment se repérer dans un environnement uniforme ? Pour pallier cet inconvénient majeur, les studios commencent à s’équiper de casques de réalité virtuelle. Le principe : immerger l’acteur – et le réalisateur, au besoin – dans l’environnement choisi comme cadre du film.

Steven Spielberg a lui-même utilisé la réalité virtuelle lors du tournage,
afin de sélectionner ses différents plans et les angles de prise de vue.

C’est le choix qu’a fait Steven Spielberg pour le tournage de son blockbuster Ready Player One. Le réalisateur américain a demandé à ses comédiens de porter des casques HTC Vive ou Oculus Rift. "Les acteurs peuvent ainsi visualiser et interagir avec le cadre du film, explique Kris Severson, directeur de l'acquisition de contenus chez HTC Viveport. Cette technologie permet également aux producteurs de créer des sets virtuels à partir de vues d'artistes. Puisque tout est fait sur ordinateur, il est possible d'ajuster l'environnement en temps réel en fonction des volontés du réalisateur."

La réalité virtuelle a ainsi permis aux comédiens de Steven Spielberg d'appréhender l'univers complexe dans lequel leurs personnages évoluent, pour mieux s'en souvenir au moment de jouer leurs scènes sur fond vert. "Sans les lunettes, le plateau se résumait à un vaste espace vide de 4 000 mètres carrés. La réalité virtuelle représentait la seule solution pour que les acteurs puissent se repérer. C’était une sorte d’expérience extracorporelle, qui est très difficile à expliquer à quelqu’un qui ne l’a pas vécue", avait-il alors déclaré au cours d’une conférence de presse. Selon Kris Severson de HTC, "de plus en plus d'entreprises du divertissement vont avoir recours à la VR du fait de la liberté d'imagination qu'elle procure". Au-delà de considérations techniques et économiques.

VERS DES SPéCIFICATIONS OUVERTES

Divers chantiers ont été mis en route dans le but d'améliorer l'ensemble de chaîne de valeur de la production cinématographique. Pour faciliter les échanges de fichiers, le secteur travaille notamment à l’élaboration de spécifications ouvertes. De nouveaux formats – tels que l'USD initié par Pixar, le MaterialX porté par Lucasfilm ou encore le glTF du consortium open source Khronos – devraient, à terme, permettre aux studios de collaborer sur de plus vastes projets en matière d'imagerie. "En tant que membre de l’Academy Software Foundation, nous guidons l’industrie vers ces standards qui deviendront le soubassement de la production cinématographique", indique Ben Fischer d’Autodesk. Le but de cette mise en commun : ne plus avoir à "réinventer la roue" chacun de son côté quand des solutions existent déjà. De quoi accélérer leurs démarches collectives en faveur de l’innovation.

SUR LE MÊME SUJET

Sujets associés

NEWSLETTER L'Usine Digitale

Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.

Votre demande d’inscription a bien été prise en compte.

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes...

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes du : Groupe Moniteur Nanterre B 403 080 823, IPD Nanterre 490 727 633, Groupe Industrie Service Info (GISI) Nanterre 442 233 417. Cette société ou toutes sociétés du Groupe Infopro Digital pourront l'utiliser afin de vous proposer pour leur compte ou celui de leurs clients, des produits et/ou services utiles à vos activités professionnelles. Pour exercer vos droits, vous y opposer ou pour en savoir plus : Charte des données personnelles.

ARTICLES LES PLUS LUS