Sora d'OpenAI génère des vidéos via des invites textuelles

Dans presque tous les articles que j'ai écrits sur les systèmes d'IA générative, en particulier ceux qui peuvent générer des images, des vidéos et du son, je mets toujours en évidence les vecteurs d'attaque qu'ils présentent lors de la création de deepfakes impossibles à distinguer du contenu authentique.
Cette année, nous avons déjà assisté à une attaque audio-deepfake contre le président Joe Biden. Les habitants du New Hampshire ont reçu un appel téléphonique dans lequel l'audio du président généré par l'IA leur a dit qu'ils n'avaient pas besoin de voter lors des prochaines élections. Comme vous pouvez l’imaginer, une attaque comme celle-là n’est que la pointe de l’iceberg en ce qui concerne les dommages qui peuvent être causés à la société par le biais de fausses informations et de campagnes de désinformation. Ce chiffre est susceptible d'augmenter car c'est une année électorale et les candidats politiques utilisent tous les outils à leur disposition pour prendre le dessus tout en essayant de donner l'impression que leurs adversaires sont moins qualifiés.
Désormais, ces attaques sont devenues plus faciles à exécuter car OpenAI, le principal fournisseur de services pour l'IA générative, a annoncé qu'il publierait bientôt un modèle d'IA capable de créer des vidéos réalistes à partir d'instructions textuelles via son nouvel outil « Sora ».

Un modèle d'IA texte-vidéo

Sora est un modèle d'IA texte-vidéo, ce qui signifie que les utilisateurs peuvent désormais générer des vidéos hyper réalistes via des invites textuelles. Le modèle peut générer des vidéos entières, étendre des vidéos existantes et animer des images fixes.

Présentation de Sora, notre modèle texte-vidéo.
Sora peut créer des vidéos d'une durée maximale de 60 secondes présentant des scènes très détaillées, des mouvements de caméra complexes et plusieurs personnages aux émotions vibrantes. https://t.co/7j2JN27M3W
Invite : « Magnifique, enneigé… pic.twitter.com/ruTEWn87vf
– OpenAI (@OpenAI) 15 février 2024

Actuellement, Sora est mis à la disposition d'un groupe sélectionné d'« équipes rouges » pour identifier les dommages ou les risques potentiels, ainsi que d'artistes visuels, de designers et de cinéastes afin d'affiner son utilité pour les efforts créatifs. De plus, OpenAI développe des outils capables de détecter le contenu trompeur généré par Sora, notamment un classificateur de détection et l'inclusion future de métadonnées qui indiqueront qu'un système d'IA a généré le contenu.

Explorer les capacités de Sora

Ce qu'OpenAI avait probablement à l'esprit lors de la création de Sora, c'était qu'il s'agirait d'un outil essentiel pour quiconque effectue tout type de travail créatif comportant un composant vidéo.
Les producteurs de cinéma et de télévision, les animateurs, les artistes et les illustrateurs viennent immédiatement à l'esprit, car ils peuvent désormais utiliser ce modèle de synthèse texte-vidéo pour créer rapidement un prototype (ou une ébauche complète) d'une scène et expérimenter différents styles sans avoir besoin de créer un projet. les mêmes ressources ou devoir faire face aux contraintes et aux coûts de la production traditionnelle.
On pense également aux spécialistes du marketing et aux annonceurs, car ils créent souvent des campagnes vidéo et du matériel promotionnel pour diverses entreprises et marques. Avec Sora, ils peuvent générer ces vidéos très rapidement et agir plus rapidement sur les sujets d'actualité et les intérêts des consommateurs à mesure qu'elles deviennent virales.
Les enseignants trouveront également de la valeur dans Sora, car ils pourront utiliser le modèle pour générer des aides visuelles pour des concepts abstraits ou difficiles, ce qui devrait rendre les sujets plus faciles à comprendre pour les étudiants. À mesure que la réalité augmentée, la réalité virtuelle et l'informatique spatiale deviennent plus populaires, j'imagine que Sora est l'un des outils les plus populaires que les développeurs AR/VR/MR utilisent pour créer des environnements réalistes qui peuvent être explorés et expérimentés à travers une réalité virtuelle/réalité mixte. casque.
Bien entendu, les cas d’utilisation s’étendent bien au-delà. Toute personne, emploi ou secteur d'activité qui apprécie ou s'appuie sur le contenu vidéo sous une forme ou une autre bénéficiera de cet outil, rendant la réalisation de ce contenu plus facile, moins coûteuse et plus rapide que jamais.
Mais bien sûr, lorsqu’il existe de nouvelles technologies et de nouveaux outils, les individus chercheront à capitaliser sur ces nouvelles technologies relativement inexplorées à des fins frauduleuses, illégales ou malhonnêtes.

Dangers des faux profonds

Comme d'habitude, le potentiel d'applications malhonnêtes pour un outil comme Sora est élevé, en particulier dans le monde politique en période d'élections. La capacité de la technologie à générer des vidéos à partir de descriptions textuelles signifie qu'il est désormais possible de créer des vidéos deepfake très convaincantes de personnalités publiques, y compris des politiciens, disant ou faisant des choses qui ne se sont jamais produites. Cette capacité pourrait être exploitée pour créer de faux récits et manipuler l’opinion publique.
Comme nous l'avons vu plus tôt dans l'année, même une attaque audio deepfake peut semer une confusion importante et propager des informations erronées, ce qui signifie que l'impact de vidéos deepfake visuellement réalistes pourrait être beaucoup plus dommageable, surtout si les vidéos deepfake circulaient sur les plateformes de médias sociaux et devenaient de plus en plus dommageables. viraux avant que les vérificateurs des faits n’aient la chance de les démystifier.
Les créateurs de ces outils populaires ont fait part de leurs efforts pour garantir que le contenu généré par l’IA soit facilement identifiable. Pourtant, si l’utilisateur moyen des médias sociaux a actuellement du mal à identifier si le contenu qu’il consulte est réel ou généré par l’IA, un outil hyperréaliste comme Sora ne fera qu’empirer les choses.

Innovation en IA vs risques sociétaux

Malgré les inquiétudes et les nouveaux vecteurs d'attaque créés par Sora, il s'agit d'un outil qui présentera probablement plus d'avantages que d'inconvénients pour la société.
Nous ne pouvons pas avoir peur des nouvelles technologies, même lorsqu’elles présentent des risques pour la société et lorsqu’il y a des aspects que nous ne comprenons pas pleinement. Ces inquiétudes autour de l’intelligence artificielle ne sont pas nouvelles. Pourtant, en moyenne, les nouveaux outils et services d’IA que nous voyons arriver sur le marché permettent aux entreprises et aux particuliers d’être plus productifs et efficaces dans leur vie quotidienne. Bien sûr, il y a des obstacles à surmonter et des problèmes à résoudre, mais il n’y aurait pas d’innovation si tel n’était pas le cas.
Pour que l’intelligence artificielle (IA) fonctionne dans le respect de la loi et prospère face à des défis croissants, elle doit intégrer un système de blockchain d’entreprise qui garantit la qualité et la propriété des données saisies, lui permettant ainsi de conserver les données en sécurité tout en garantissant leur immuabilité. de données. Consultez la couverture de CoinGeek sur cette technologie émergente pour savoir pourquoi la blockchain d'entreprise sera l'épine dorsale de l'IA.
Regarder : Qu'est-ce que la blockchain et l'IA ont en commun ? Ce sont des données
Nouveau sur la blockchain ? Consultez la section Blockchain pour les débutants de CoinGeek, le guide de ressources ultime pour en savoir plus sur la technologie blockchain.