Meta intensifie ses efforts pour lutter contre les deepfakes générés par l'IA

    • Meta intensifie ses efforts pour lutter contre les deepfakes générés par l'IA
    • La lutte contre la désinformation numérique s'intensifie avec l'émergence de deepfakes viraux
    • Les normes d'IA à l'échelle de l'industrie deviennent cruciales pour identifier le contenu généré par l'IA

Peu de temps après que l'État du New Hampshire ait été frappé par l'un des premiers programmes de désinformation généralisés générés par l'intelligence artificielle (IA) autour de la prochaine élection présidentielle, Meta (NASDAQ : META) a annoncé qu'elle allait intensifier ses efforts pour lutter contre la désinformation générée par l'IA. campagnes.
Dans son récent article de blog, Meta a déclaré qu'ils s'efforçaient de garantir que le contenu généré par l'IA soit facilement identifiable sur ses plateformes (Facebook, Instagram et Threads).

Meta a commencé à mettre en œuvre des mesures de protection autour du contenu généré par l'IA sur ses plates-formes et opère en étiquetant les images créées via son propre logiciel d'IA générative avec un filigrane « Imaginé avec l'IA ».
Cependant, l'entreprise affirme que son objectif est d'étendre cette transparence au contenu généré par les outils d'autres sociétés, tels que ceux créés par Google (NASDAQ : GOOGL), OpenAI, Microsoft (NASDAQ : MSFT), Adobe (NASDAQ : ADBE), Midjourney., et Shutterstock (NASDAQ : SSTK).

Pour rendre cela possible, Meta travaillera avec des partenaires industriels pour créer des normes techniques communes pour identifier le contenu de l'IA, y compris la vidéo et l'audio générés par l'IA.
Les stratégies de Meta pour identifier le contenu généré par l'IA
Pour aider le monde à identifier facilement le contenu généré par l'IA, Meta met en œuvre des marqueurs visibles sur les images, des filigranes invisibles et des métadonnées intégrées dans les fichiers pour signaler que l'IA a été utilisée pour créer le contenu.
Bien que les solutions permettant d'identifier les images générées par l'IA soient en hausse et abondantes au point où Meta peut identifier ces images créées par d'autres fournisseurs d'IA générative, il reconnaît que ces solutions et identifiants exacts ne sont pas aussi répandus en ce qui concerne l'audio et la vidéo générés par l'IA.

Meta intensifie ses efforts pour lutter contre les deepfakes générés par l'IA

.
Bien qu'ils ne disposent pas pour le moment d'une solution globale pour le contenu audio et vidéo créé par d'autres fournisseurs de services, lorsqu'il s'agit de personnes partageant du contenu généré par l'IA créé par l'un des outils de Meta sur des plateformes qui lui appartiennent, les utilisateurs devront avoir une divulgation sur leur message qui indique que le contenu a été généré par l'IA. Si les utilisateurs parviennent à contourner cette exigence, Meta indique qu'ils s'exposeront à des sanctions en cas de non-conformité.

La lutte contre la désinformation numérique

Certains rapports indiquent qu'un récent deepfake du président Joe Biden qui est devenu viral sur Facebook a incité le conseil d'administration chargé de superviser la modération du contenu à imposer des changements à la politique de Facebook. Bien que la vidéo ne soit pas légitime, elle ne viole pas la politique de Meta concernant les médias manipulés, car elle n'a pas été créée à l'aide de l'intelligence artificielle et a été autorisée à rester sur Facebook.
La politique actuelle de Meta restreint uniquement les éléments de contenu qui montrent des individus prononçant des mots qu'ils n'ont pas prononcés s'ils étaient créés à l'aide de techniques d'IA ou d'apprentissage automatique.

Cependant, le conseil de surveillance recommande une approche plus large, suggérant que la politique de Meta devrait couvrir tout le contenu audio et visuel qui représente des personnes faisant ou disant des choses qu'elles n'ont jamais faites, quelle que soit la méthode de création.
Bien que quelques cas de deepfakes générés par l’IA et devenus viraux sur les réseaux sociaux aient déjà eu lieu, les entreprises qui créent ces systèmes d’IA générative doivent réagir rapidement et, plus important encore, être proactives si possible.
Avec l’évolution rapide de la technologie des deepfakes, la capacité de créer de faux contenus très réalistes, presque impossibles à distinguer, constitue une menace importante pour de nombreuses personnes, États et gouvernements, en particulier pour les personnalités de premier plan telles que les politiciens.

Dans un environnement politique extrêmement compétitif, le risque d'être victime d'une attaque de deepfake est élevé, les adversaires cherchant à miner la crédibilité de chacun et à influencer la perception des électeurs.
Nous avons vu une telle attaque se dérouler fin janvier avec une escroquerie par appel automatisé qui utilisait l’IA pour imiter la voix du président Joe Biden, les décourageant de participer aux élections primaires du New Hampshire. Dans ce cas, l’arnaque aux appels automatisés a finalement été identifiée comme étant illégitime, mais cet événement n’est probablement qu’un échantillon de l’une des nombreuses tactiques électorales générées par l’IA que nous verrons cette année.

Normes d'IA à l'échelle de l'industrie

À mesure que la technologie derrière les images, vidéos, audio et textes générés par l’IA continue d’évoluer, chaque fournisseur d’IA générative devra prendre des mesures pour garantir que le contenu généré par l’IA est facilement identifiable. Cela devient de plus en plus important au cours d’une année électorale, car c’est une période où les risques de désinformation, d’escroqueries et de fraudes visant à influencer les résultats des élections sont accrus.
Alors que les systèmes d’IA continuent d’améliorer leur capacité à produire du contenu qui imite fidèlement la réalité, l’effort collectif de l’industrie technologique pour développer et respecter des normes d’identification du contenu généré par l’IA devient crucial.

Dans les mois à venir, nous verrons probablement des normes techniques communes continuer à émerger à mesure que les fournisseurs de services s’uniront pour atténuer les risques et les dommages pouvant être causés par l’IA. Les géants de la technologie devront s’unir pour résoudre les défis posés par l’IA. Bien que la plupart des outils qu'ils ont créés se trouvent dans un jardin clos, leurs résultats peuvent être partagés sur n'importe quelle plateforme de médias sociaux ou autre média.

Il faudra une approche collaborative, et éventuellement quelques cas supplémentaires de deepfakes devenant viraux et causant des dommages, pour qu'un plus grand nombre d'acteurs (et de législateurs) passent à l'action et mettent à jour les politiques de manière à protéger les individus contre ces nouveaux vecteurs d'attaque de l'IA. nous voyons entrer en jeu.
Pour que l’intelligence artificielle (IA) fonctionne dans le respect de la loi et prospère face à des défis croissants, elle doit intégrer un système de blockchain d’entreprise qui garantit la qualité et la propriété des données saisies, lui permettant ainsi de conserver les données en sécurité tout en garantissant leur immuabilité.

de données. Consultez la couverture de CoinGeek sur cette technologie émergente pour savoir pourquoi la blockchain d'entreprise sera l'épine dorsale de l'IA.
Regarder : Qu'est-ce que la blockchain et l'IA ont en commun ? Ce sont des données
Nouveau sur la blockchain ? Consultez la section Blockchain pour les débutants de CoinGeek, le guide de ressources ultime pour en savoir plus sur la technologie blockchain.