Sora, la génération de vidéos par OpenAI
Annoncé comme l’IA qui va révolutionner la création de vidéos. Qu’est-ce que SORA ?
Publié le 16 février 2024
Ca y est l’annonce est tombée. OpenAI nous présente sa future IA générative spécialisée dans la vidéo. La dernière née de la petite famille, nommée SORA. Pour le moment, il va encore falloir attendre un peu pour profiter de cet outil aux capacités impressionnantes…
Quels seront les capacités de SORA ?
A l’heure où j’écris ces lignes. OpenAI a seulement partagé un certain nombre de vidéos. Certaines sont impressionnantes, d’autres comportent pas mal de défauts. Mais, cela laisse présager quelque chose de vraiment impressionnant.
Donc, ce que partage OpenAI au sujet de SORA est assez mince et pourtant, très enthousiasmant. L’IA pourrait générer des vidéos jusqu’à une minute à partir d’un prompt. Vu la qualité de certaines vidéos. Cela laisse songeur. En utilisant Sora, les utilisateurs peuvent décrire en détail la scène souhaitée, y compris les mouvements de la caméra, le paysage, les vêtements des personnages et d’autres éléments, offrant ainsi une grande liberté créative.
Sora, un grand pouvoir, implique de grandes responsabilités
Conscient des problématiques liées à une telle qualité de génération de vidéo. On peut comprendre qu’OpenAI ne se précipite pas pour lancer son produit.
Actuellement en phase de test, Sora n’est accessible qu’aux membres de la communauté Red d’OpenAI, qui sont des experts chargés d’évaluer les risques liés à la sécurité. La technologie est également mise à la disposition de quelques artistes, designers et cinéastes pour recueillir des retours et des retours d’expérience afin de faire évoluer le modèle dans la meilleure direction pour les professionnels créatifs.
Les risques liés à Sora et les mesures de sécurité d’OpenAI
Après quelques recherches, j’ai mis en relation, les risques inspirés par un tel outil et les démarches engagées par OpenAi pour éviter trop de dérives:
Risques de désinformation et manipulation
- Désinformation et deepfakes : Sora peut être utilisé pour créer des vidéos ultra-réalistes qui pourraient être utilisées pour tromper ou manipuler le public, notamment lors d’élections ou d’autres événements importants.
- Mesures d’OpenAI : OpenAI travaille avec des red teamers pour tester le modèle contre les risques de désinformation et de contenu haineux. Ils développent également des outils pour détecter le contenu trompeur et envisagent d’inclure des métadonnées C2PA pour vérifier la provenance des vidéos générées.
Risques liés aux droits d’auteur
- Violations des droits d’auteur : Il existe des préoccupations concernant la manière dont les droits d’auteur seront gérés lorsque des vidéos sont largement créées par une IA, et comment la part humaine et celle de l’IA seront distinguées.
- Mesures d’OpenAI : OpenAI est conscient de ces questions et semble engagé dans des discussions avec des parties prenantes pour aborder collectivement ces problèmes.
Risques de contenu inapproprié
- Contenu inapproprié : Le potentiel de Sora à générer du contenu extrême, comme la violence ou l’imitation de célébrités, soulève des inquiétudes.
- Mesures d’OpenAI : OpenAI met en place des règles pour limiter l’utilisation potentiellement nuisible de Sora et s’engage à consulter diverses parties prenantes pour comprendre les préoccupations et identifier les cas d’utilisation positifs.
Risques de confusion et d’erreurs visuelles
- Incohérences visuelles : Sora peut générer des erreurs visuelles, comme des inversions de jambes ou l’absence de marques de morsure sur un objet après interaction.
- Mesures d’OpenAI : Bien que ces problèmes soient principalement techniques, OpenAI continue de tester et d’améliorer le modèle pour réduire ces incohérences.
En résumé, OpenAI reconnaît les risques potentiels liés à l’utilisation de Sora et prend des mesures proactives pour les atténuer, notamment en testant le modèle, en développant des outils de détection de contenu trompeur, et en envisageant l’ajout de métadonnées pour assurer l’intégrité du contenu généré.