Bien que l’IA générative de vidéos d’OpenAI, Sora, n’est pas encore tout à fait au point, la directrice technique de l’entreprise affirme qu’elle sera disponible cette année. Consciente du potentiel d’exploitation malveillante de cet outil, la firme semble vouloir prendre son temps pour affiner la sécurité du produit.
Annoncé il y a un mois, Sora est le nouveau modèle de génération de vidéos développé par OpenAI. Il suffit à cet outil d’une simple invite textuelle pour générer une vidéo réaliste d’une durée d’une minute. L’un des points forts de cette IA par rapport aux outils similaires (dont Runway) est la fluidité et le réalisme des séquences produites.
Bien que Sora soit encore en développement, la directrice technique d’OpenAI, Mira Murati, a affirmé lors de son passage sur le plateau du Wall Street Journal que l’outil sera accessible au public dans le courant de l’année. L’équipe d’ingénieurs doit encore procéder à certaines opérations cruciales avant la sortie de l’outil. Actuellement, Sora est en phase de « red teaming », un processus dans lequel des personnes testent la sécurité et la fiabilité du système. Le modèle est ainsi vérifié minutieusement, afin d’identifier et rectifier les vulnérabilités potentielles.
Une sortie prévue cette année
Le lancement de Sora n’est pas encore définitivement et précisément fixé, mais selon Murati, OpenAI devrait le rendre disponible dans quelques mois. « J’espère définitivement cette année, mais cela pourrait être dans quelques mois », déclare-t-elle.
Murati n’a pas encore révélé le coût d’utilisation de l’outil une fois lancé. En revanche, elle affirme que la création et le fonctionnement de Sora sont beaucoup plus coûteux comparés à ChatGPT et à DALL-E-3. Cela est tout à fait normal compte tenu de la complexité technique de la génération de vidéos ultraréalistes, car le système nécessite forcément une puissance de calcul bien plus importante. En effet, créer des vidéos n’implique pas uniquement la création d’images, mais aussi la gestion de la cohérence temporelle et spatiale à travers les cadres pour maintenir la fluidité et le réalisme.
Toutefois, malgré les défis actuels liés aux coûts et à l’optimisation, OpenAI vise à proposer un prix similaire à celui de DALL-E-3. « Nous essayons de le rendre disponible à un coût similaire éventuellement à ce que nous avons pu obtenir avec DALL-E », affirme Murati.
Une IA sécurisée ?
Le lancement de nouvelles IA génératives s’accompagne souvent d’une vague de préoccupations en matière de sécurité. En effet, ces outils facilitent grandement la désinformation et contribuent à la manipulation de masse. D’ailleurs, compte tenu des prochaines élections présidentielles aux États-Unis, qui se tiendront en novembre, une journaliste du Wall Street Journal a fait part de ses préoccupations quant à la sortie de Sora.
Se voulant rassurante, Murati affirme que l’outil ne sortira pas tant que l’équipe d’OpenAI ne sera pas confiante sur la manière dont il pourrait affecter les élections — une période où les campagnes de désinformation sont monnaie courante. De plus, elle a affirmé qu’OpenAI travaille en ce moment sur des méthodes permettant de marquer les vidéos générées, de façon à ce qu’elles puissent être facilement distinguées des vidéos réelles.
À noter qu’à l’heure actuelle, OpenAI n’a toujours pas finalisé les décisions concernant les types de contenus que l’IA pourra ou non générer. Cependant, selon Murati, il est fort probable que les directives soient similaires à celles de DALL-E. Cela signifie que Sora ne pourra pas générer des images de figures publiques, ainsi que d’autres contenus sensibles.
L’interview complète de Mira Murati par le Wall Street Journal (© Wall Street Journal/YoutTube) :