Sora : comment fonctionne le nouveau modèle text-to-vidéo
OpenAI, l’inventeur de ChatGPT, lance un nouveau modèle text-to-vidéo qui impressionne par sa qualité. Appelé Sora, il est pour le moment réservé aux tests de quelques professionnels.
La planète GenAI est en pleine ébullition. Après la déferlante ChatGPT, et dans une moindre mesure celle de DALL-E, le nouveau né de la famille OpenAI s’appelle Sora.
« Notre modèle texte-vidéo. Sora peut générer des vidéos d’une durée maximale d’une minute tout en conservant la qualité visuelle et le respect du prompt de l’utilisateur.» explique OpenAI dans un descriptif sur son site, à grand renfort de démonstrations impressionnantes des performances du nouvel outil.
Introducing Sora, our text-to-video model.
Sora can create videos of up to 60 seconds featuring highly detailed scenes, complex camera motion, and multiple characters with vibrant emotions. https://t.co/7j2JN27M3W
Prompt: “Beautiful, snowy… pic.twitter.com/ruTEWn87vf
— OpenAI (@OpenAI) February 15, 2024
Sora : comment ça marche ?
« Sora s’appuie sur des recherches antérieures sur les modèles DALL·E et GPT. Il utilise la technique de récapitulation de DALL·E 3, qui consiste à générer des légendes hautement descriptives pour les données d’entraînement visuel. En conséquence, le modèle est capable de suivre plus fidèlement les instructions textuelles de l’utilisateur dans la vidéo générée..» explique OpenAI.
Sora est un modèle génératif de type Transformer à l’instar de DALL-E. Il est aussi capable de prendre une image fixe et de générer une vidéo à partir de celle-ci mais aussi enrichir une vidéo existante avec de nouvelles images.
Prompt: “A stylish woman walks down a Tokyo street filled with warm glowing neon and animated city signage. she wears a black leather jacket, a long red dress, and black boots, and carries a black purse. she wears sunglasses and red lipstick. she walks confidently and casually.… pic.twitter.com/cjIdgYFaWq
— OpenAI (@OpenAI) February 15, 2024
Sora : un accès réservé…pour le moment
C’est sans doute l’effet déceptif de cette annonce. Contrairement à ChatGPT et DALL-E, l’accès à l’utilisation est réservée à deux catégories d’utilisateurs.
Sora est disponible pour des Red Teams – experts dans des domaines tels que la désinformation, les contenus haineux et les préjugés — qui vont tester le modèle de manière contradictoire pour évaluer les zones critiques en termes de dommages ou de risques. D’autre part, des artistes visuels, des designers et des cinéastes vont aussi y accéder pour cerner les attentes des professionnels de la création.
Sora sera-t-il accessible au grand public ?
OpenAI ne donne aucune date d’ouverture publique et préfère insister sur les gardes fous mis en place avant une large diffusion.
« Nous travaillons avec des Red Teams — experts dans des domaines tels que la désinformation, les contenus haineux et les préjugés — qui testeront le modèle de manière contradictoire. Nous développons également des outils pour aider à détecter les contenus trompeurs, comme un classificateur de détection qui peut déterminer quand une vidéo a été générée par Sora.» explique OpenAI
Et d’indiquer que les les métadonnées C2PA (Coalition for Content Provenance and Authenticity ). Fondé en 2021, ce consortium, qui compte Microsoft et AWS parmi ses membres, élabore des spécifications techniques pour établir la provenance et l’authenticité du contenu.
La C2PA a livré la version 1.0 de sa norme technique pour la provenance et l’authenticité du contenu en 2021, mise à jour avec la version 1.1 puis 1.2 en 2022. La prise en charge de l’IA générative, de la vidéo et de l’audio en direct font partie des développements à venir.
Introducing Sora, our text-to-video model.
Sora can create videos of up to 60 seconds featuring highly detailed scenes, complex camera motion, and multiple characters with vibrant emotions. https://t.co/7j2JN27M3W
Prompt: “Beautiful, snowy… pic.twitter.com/ruTEWn87vf
— OpenAI (@OpenAI) February 15, 2024
Sora est-il performant ?
OpenAI admet les faiblesses actuelles de son modèle. « Il peut avoir du mal à simuler avec précision la physique d’une scène complexe et ne pas comprendre des cas spécifiques de cause à effet. Par exemple, une personne peut mordre dans un cookie, mais par la suite, le cookie peut ne pas avoir de marque de morsure. Le modèle peut également confondre les détails spatiaux, par exemple en mélangeant la gauche et la droite, et peut avoir du mal à décrire avec précision les événements qui se déroulent au fil du temps, comme suivre une trajectoire de caméra spécifique.»
Outre la collaboration avec les Red Teams ( voir plus haut), OpenAI indique que Sora sera en mesure de « vérifier et rejeter les saisies de texte qui enfreignent nos politiques d’utilisation, comme celles qui demandent une violence extrême, du contenu sexuel, des images haineuses, une ressemblance avec une célébrité ou l’adresse IP d’autrui.»
Image illustration : © OpenAI