Meta pour lutter contre les fausses nouvelles générées par l'IA avec des « filigranes invisibles »


Le géant des médias sociaux Meta, anciennement connu sous le nom de Facebook, inclura un filigrane invisible dans toutes les images qu’il crée à l’aide de l’intelligence artificielle (IA), dans le cadre du renforcement des mesures visant à empêcher toute utilisation abusive de cette technologie.

Dans un rapport du 6 décembre détaillant les mises à jour de Meta AI – l’assistant virtuel de Meta – la société a révélé qu’elle ajouterait bientôt un filigrane invisible à toutes les images générées par l’IA créées avec « l’expérience Imaginez avec Meta AI ». Comme de nombreux autres chatbots IA, Meta AI génère des images et du contenu en fonction des invites des utilisateurs. Cependant, Meta vise à empêcher les mauvais acteurs de considérer le service comme un autre outil permettant de tromper le public.

Comme de nombreux autres générateurs d’images IA, Meta AI génère des images et du contenu en fonction des invites de l’utilisateur. La dernière fonctionnalité de filigrane rendrait plus difficile pour un créateur la suppression du filigrane.

Meta pour lutter contre les fausses nouvelles générées par l'IA avec des « filigranes invisibles »

« 

Meta indique qu’elle utilisera un modèle d’apprentissage en profondeur pour appliquer des filigranes aux images générées avec son outil d’IA, qui seraient invisibles à l’œil humain. Cependant, les filigranes invisibles peuvent être détectés avec un modèle correspondant.

Contrairement aux filigranes traditionnels, Meta affirme que ses filigranes AI – baptisés Imagine with Meta AI – sont « résilients aux manipulations d’image courantes telles que le recadrage, le changement de couleur (luminosité, contraste, etc.), les captures d’écran et plus encore ». Bien que les services de filigrane soient initialement déployés pour les images créées via Meta AI, la société prévoit d’apporter cette fonctionnalité à d’autres services Meta qui utilisent des images générées par l’IA.

Dans sa dernière mise à jour, Meta AI a également introduit la fonctionnalité « réimaginer » pour Facebook Messenger et Instagram. La mise à jour permet aux utilisateurs de s’envoyer et de recevoir des images générées par l’IA. En conséquence, les deux services de messagerie bénéficieront également de la fonction de filigrane invisible.

En rapport: Tom Hanks, MrBeast et d’autres célébrités mettent en garde contre les fausses escroqueries liées à l’IA

Les services d’IA tels que Dall-E et Midjourney permettent déjà d’ajouter des filigranes traditionnels au contenu qu’ils produisent. Cependant, ces filigranes peuvent être supprimés en recadrant simplement le bord de l’image. De plus, des outils d’IA spécifiques peuvent supprimer automatiquement les filigranes des images, ce qui, selon Meta AI, sera impossible à faire avec sa sortie.

Depuis l’intégration des outils d’IA générative, de nombreux entrepreneurs et célébrités ont dénoncé des campagnes frauduleuses basées sur l’IA. Les fraudeurs utilisent des outils facilement disponibles pour créer de fausses vidéos, audio et images de personnalités populaires et les diffuser sur Internet.

En mai, une image générée par l’IA montrant une explosion près du Pentagone – le siège du ministère de la Défense des États-Unis – a provoqué une brève baisse du marché boursier.

ressemble à première vue à une actualité légitime de Bloomberg. alimentation.

La fausse image, comme montré ci-dessus, a ensuite été reprise et diffusée par d’autres médias, provoquant un effet boule de neige. Cependant, les autorités locales, dont l’Agence de protection des forces du Pentagone, en charge de la sécurité du bâtiment, ont déclaré avoir eu connaissance de la nouvelle qui circulait et ont confirmé qu’« aucune explosion ni incident » ne s’était produit.

Il n’y a AUCUNE explosion ou incident survenant dans ou à proximité de la réserve du Pentagone, et il n’y a aucun danger ou danger immédiat pour le public.

Le même mois, le groupe de défense des droits humains Amnesty International s’est laissé prendre à une image générée par l’IA illustrant la brutalité policière et l’a utilisée pour mener des campagnes contre les autorités.

Revue : La peur et le doute des législateurs motivent les propositions de réglementation sur la cryptographie aux États-Unis