Meta intensifie ses efforts pour lutter contre les deepfakes générés par l'IA

  • Meta intensifie ses efforts pour lutter contre les deepfakes générés par l'IA
  • La lutte contre la désinformation numérique s'intensifie avec l'émergence de deepfakes viraux
  • Les normes d'IA à l'échelle de l'industrie deviennent cruciales pour identifier le contenu généré par l'IA

Peu de temps après que l'État du New Hampshire ait été frappé par l'un des premiers programmes de désinformation généralisés générés par l'intelligence artificielle (IA) autour de la prochaine élection présidentielle, Meta (NASDAQ : META) a annoncé qu'elle allait intensifier ses efforts pour lutter contre la désinformation générée par l'IA. campagnes.

Dans son récent article de blog, Meta a déclaré qu'ils s'efforçaient de garantir que le contenu généré par l'IA soit facilement identifiable sur ses plateformes (Facebook, Instagram et Threads).

Meta a commencé à mettre en œuvre des mesures de protection autour du contenu généré par l'IA sur ses plates-formes et opère en étiquetant les images créées via son propre logiciel d'IA générative avec un filigrane « Imaginé avec l'IA ».

Meta intensifie ses efforts pour lutter contre les deepfakes générés par l'IA

Pour rendre cela possible, Meta travaillera avec des partenaires industriels pour créer des normes techniques communes pour identifier le contenu de l'IA, y compris la vidéo et l'audio générés par l'IA.

Les stratégies de Meta pour identifier le contenu généré par l'IA

Pour aider le monde à identifier facilement le contenu généré par l'IA, Meta met en œuvre des marqueurs visibles sur les images, des filigranes invisibles et des métadonnées intégrées dans les fichiers pour signaler que l'IA a été utilisée pour créer le contenu.

Bien que les solutions permettant d'identifier les images générées par l'IA soient en hausse et abondantes au point où Meta peut identifier ces images créées par d'autres fournisseurs d'IA générative, il reconnaît que ces solutions et identifiants exacts ne sont pas aussi répandus en ce qui concerne l'audio et la vidéo générés par l'IA..

Bien qu'ils ne disposent pas pour le moment d'une solution globale pour le contenu audio et vidéo créé par d'autres fournisseurs de services, lorsqu'il s'agit de personnes partageant du contenu généré par l'IA créé par l'un des outils de Meta sur des plateformes qui lui appartiennent, les utilisateurs devront avoir une divulgation sur leur message qui indique que le contenu a été généré par l'IA. Si les utilisateurs parviennent à contourner cette exigence, Meta indique qu'ils s'exposeront à des sanctions en cas de non-conformité.

La lutte contre la désinformation numérique

Certains rapports indiquent qu'un récent deepfake du président Joe Biden qui est devenu viral sur Facebook a incité le conseil d'administration chargé de superviser la modération du contenu à imposer des changements à la politique de Facebook. Bien que la vidéo ne soit pas légitime, elle ne viole pas la politique de Meta concernant les médias manipulés, car elle n'a pas été créée à l'aide de l'intelligence artificielle et a été autorisée à rester sur Facebook.

La politique actuelle de Meta restreint uniquement les éléments de contenu qui montrent des individus prononçant des mots qu'ils n'ont pas prononcés s'ils étaient créés à l'aide de techniques d'IA ou d'apprentissage automatique. Cependant, le conseil de surveillance recommande une approche plus large, suggérant que la politique de Meta devrait couvrir tout le contenu audio et visuel qui représente des personnes faisant ou disant des choses qu'elles n'ont jamais faites, quelle que soit la méthode de création.

Bien que quelques cas de deepfakes générés par l’IA et devenus viraux sur les réseaux sociaux aient déjà eu lieu, les entreprises qui créent ces systèmes d’IA générative doivent réagir rapidement et, plus important encore, être proactives si possible.

Normes d'IA à l'échelle de l'industrie

À mesure que la technologie derrière les images, vidéos, audio et textes générés par l’IA continue d’évoluer, chaque fournisseur d’IA générative devra prendre des mesures pour garantir que le contenu généré par l’IA est facilement identifiable. Cela devient de plus en plus important au cours d’une année électorale, car c’est une période où les risques de désinformation, d’escroqueries et de fraudes visant à influencer les résultats des élections sont accrus.

Alors que les systèmes d’IA continuent d’améliorer leur capacité à produire du contenu qui imite fidèlement la réalité, l’effort collectif de l’industrie technologique pour développer et respecter des normes d’identification du contenu généré par l’IA devient crucial.

Les géants de la technologie devront s’unir pour résoudre les défis posés par l’IA. Bien que la plupart des outils qu'ils ont créés se trouvent dans un jardin clos, leurs résultats peuvent être partagés sur n'importe quelle plateforme de médias sociaux ou autre média.

Pour que l’intelligence artificielle (IA) fonctionne dans le respect de la loi et prospère face à des défis croissants, elle doit intégrer un système de blockchain d’entreprise qui garantit la qualité et la propriété des données saisies, lui permettant ainsi de conserver les données en sécurité tout en garantissant leur immuabilité. de données. Consultez la couverture de CoinGeek sur cette technologie émergente pour savoir pourquoi la blockchain d'entreprise sera l'épine dorsale de l'IA.

Regarder  : Qu'est-ce que la blockchain et l'IA ont en commun ? Ce sont des données

Nouveau sur la blockchain ? Consultez la section Blockchain pour les débutants de CoinGeek, le guide de ressources ultime pour en savoir plus sur la technologie blockchain.