Le festival du film IA ouvre une fenêtre sur le champ des possibles du cinéma

Personnages en boue séchée, Paul Gauguin à Tahiti ou grands-mères géantes, le festival du film IA de New York a ouvert une fenêtre sur le champ des possibles que permet désormais cette technologie accessible à tous. Près de 3.000 courts-métrages ont été soumis à ce festival organisé par la start-up Runway AI, l’une des plus avancées dans la génération de vidéo grâce à l’IA, signe d’un intense bouillonnement créatif. Les dix films sélectionnés ont offert des articulations débridées de l’imaginaire de leurs auteurs, avec des univers esthétiquement époustouflants. «Il y a cette perception selon laquelle la réalisation avec l’IA a toujours un style très identifié, mais ces films sont très différents les uns des autres», constate Anastadis Germanidis, co-fondateur de Runway. Mais le cinéma et l’animation sont déjà allés si loin ces 50 dernières années, en partie grâce à l’IA, que ces oeuvres en rappellent d’autres, d’«Inception» à «Matrix», en passant par «La passion Van Gogh». Principale différence: les courts-métrages ont coûté une infime fraction du budget de ces films et ont été réalisés avec des outils manipulables par tous. Runway permet, à partir d’une demande écrite en langage courant (prompt), de créer un plan de quelques secondes, de transformer une série d’images fixes en courte vidéo, ou remodeler une séquence existante pour transformer, par exemple, une photo en un tableau. En février, OpenAI a lancé sa version, baptisée Sora, tandis que Google et Meta travaillent à leur déclinaison, respectivement appelées Lumiere et Emu. Pour son court primé au festival, le Français Léo Cannone a travaillé seul à partir de son scénario, généré des centaines d’images grâce à l’application IA Midjourney, puis les a animées en utilisant Runway, en procédant à de nombreuses retouches au passage. Les logiciels actuels sont encore limités dans certains domaines, notamment les angles de caméra ou la mise en scène d’humains comme dans un film en prises de vue réelles. «Je ne pouvais pas tellement avoir de personnages, de paroles, donc ça a un peu créé l’esthétique du film», explique le metteur en scène. Après génération, «il y avait encore beaucoup de défauts, des aberrations dans chaque scène, donc j’ai dû beaucoup retoucher. Cela ne sort pas du logiciel tout prêt.» «Si vous voulez un récit avec des personnages humains hyperréalistes, nous n’y sommes pas encore», concède Alejandro Matamala, l’un des co-fondateurs de Runway. «Mais il y a différentes façons de raconter une histoire.» Les obstacles techniques vont tomber, car les modèles sur lesquels s’appuient ces logiciels ne cessent de s’améliorer. Runway travaille même à un modèle dit général, qui sera en mesure de comprendre les mouvements au sein d’une image et comment ils modifient son environnement. «Quand on en sera arrivé à ce que les modèles (concurrents) atteignent tous un niveau de haute qualité, l’important sera (…) de créer autour des outils utiles», estime Anastadis Germanidis, un autre co-fondateur de Runway. Les 3 co-fondateurs de la start-up n’ont pas un profil classique d’ingénieurs en informatique et sont tous passés par une formation artistique à l’université de New York. Ils insistent sur l’importance de maîtriser un «langage commun» entre programmation et création, citant en exemple Apple et Pixar. «Pour des réalisateurs comme moi, l’IA est une opportunité de faire évoluer le modèle traditionnel d’Hollywood», régi par les studios, se réjouit Carlo de Togni, co-auteur de «L’éveil à la création», également primé au festival. «Des productions indépendantes vont probablement s’approcher de certains films hollywoodiens et les concurrencer», prédit le réalisateur italien. De quoi inquiéter l’industrie du cinéma. L’été dernier, aux Etats-Unis, de nombreux acteurs et scénaristes ont fait grève pendant plusieurs mois, réclamant notamment des protections contre l’IA générative.