Nikon, Sony et Canon proposent une nouvelle façon de lutter contre les deepfakes

  • Les fabricants d'appareils photo Nikon, Sony et Canon proposent une nouvelle approche pour lutter contre les deepfakes en intégrant des signatures numériques dans les images prises directement à partir de leurs appareils.
  • Ces signatures incluent des métadonnées importantes pour certifier l'origine numérique de chaque photo, facilitant ainsi la vérification de l'authenticité des images en ligne.
  • Cette initiative vise à fournir aux professionnels des médias et aux artistes des preuves irréfutables de la crédibilité de leurs images, tout en contribuant aux efforts de lutte contre la désinformation et l'utilisation frauduleuse des photos en ligne.

les entreprises technologiques et les groupes de surveillance se précipitent pour développer des outils permettant d’identifier les faux contenus.

Le filigrane des images générées par ordinateur est une solution couramment proposée, ajoutant un indicateur invisible sous la forme de métadonnées cachées qui permet de révéler qu'une image a été créée à l'aide d'un outil d'IA générative. Mais les chercheurs ont découvert qu’un tel tatouage présente un défaut majeur : les techniques contradictoires peuvent facilement le supprimer.

voire le contraire : intégrer des filigranes dans de « vraies » photographies.

Nikon, Sony et Canon proposent une nouvelle façon de lutter contre les deepfakes

Selon Nikkei Asia certifiant cryptographiquement l'

Sony publiera des mises à jour du micrologiciel pour insérer des signatures numériques dans ses appareils photo sans miroir actuels ainsi qu'un filigrane vidéo plus tard dans l'année.

aux professionnels des médias et aux artistes des preuves irréfutables de la crédibilité de leurs images

IA tente de passer le système Verify sans signature authentique, elle est étiquetée comme « Aucune information d'identification de contenu ».

Mais comme tout autre système de filigrane, son succès dépendra d’une adoption généralisée (un plus grand nombre de fabricants de matériel intègrent la norme) et d’une mise en œuvre à l’épreuve du temps (le code évolue pour rester inpiratable).

Comme l'a rapporté Decrypt, des recherches récentes indiquent que les techniques anti-filigrane pourraient également compromettre les signatures intégrées, rendant les méthodes de filigrane actuelles inutiles. Cependant, cela ne fait que rendre les images filigranées non filigranées, de sorte que les utilisateurs disposent de moins d'outils pour détecter leur caractère artificiel.

cela est moins problématique que la suppression des filigranes des fausses images générées par l’IA l’image restante est toujours capturée par un appareil photo : elle ne provient pas d’un modèle génératif. Même s’il perd sa preuve cryptographique, le contenu sous-jacent reste authentique.

Le principal risque dans ce cas est lié à l'attribution et à la gestion des droits, et non à la véracité du contenu. L'image pourrait être mal créditée ou utilisée sans licence appropriée, mais elle n'induise pas en soi les spectateurs en erreur sur la réalité qu'elle représente.

OpenAI a récemment annoncé un détecteur de deepfake alimenté par l'IA qui, selon lui, a une précision de 99 % sur les images. Pourtant, les détecteurs d’IA restent imparfaits et font l’objet d’une mise à niveau constante pour devancer les évolutions de la technologie générative.

la nécessité de faire la différence entre le contenu réel et le contenu fabriqué n’a jamais été aussi aiguë. Les politiciens et les développeurs technologiques se démènent pour trouver des solutions viables, donc un peu d’aide de ces entreprises est sûrement appréciée.