Nikon, Sony et Canon proposent une nouvelle façon de lutter contre les deepfakes

Alors que les photos et vidéos réalistes générées par l’IA prolifèrent en ligne, les entreprises technologiques et les groupes de surveillance se précipitent pour développer des outils permettant d’identifier les faux contenus.
Le filigrane des images générées par ordinateur est une solution couramment proposée, ajoutant un indicateur invisible sous la forme de métadonnées cachées qui permet de révéler qu'une image a été créée à l'aide d'un outil d'IA générative. Mais les chercheurs ont découvert qu’un tel tatouage présente un défaut majeur : les techniques contradictoires peuvent facilement le supprimer.
Aujourd’hui, les principaux fabricants d’appareils photo proposent une approche différente, voire le contraire : intégrer des filigranes dans de « vraies » photographies.
Nikon, Sony et Canon ont récemment annoncé une initiative conjointe visant à inclure des signatures numériques dans les images prises directement à partir de leurs appareils photo sans miroir haut de gamme. Selon Nikkei Asia, les signatures intégreront des métadonnées clés telles que la date, l'heure, la localisation GPS et les détails du photographe, certifiant cryptographiquement l'origine numérique de chaque photo.
Nikon a annoncé qu'il lancerait cette fonctionnalité dans sa prochaine gamme d'appareils photo professionnels sans miroir ; Sony publiera des mises à jour du micrologiciel pour insérer des signatures numériques dans ses appareils photo sans miroir actuels ; et Canon a l'intention de lancer des appareils photo avec authentification intégrée en 2024, ainsi qu'un filigrane vidéo plus tard dans l'année.
L'objectif, rapporte Nikkei, est de fournir aux photojournalistes, aux professionnels des médias et aux artistes des preuves irréfutables de la crédibilité de leurs images. Les signatures inviolables ne disparaîtront pas avec les modifications et devraient contribuer aux efforts de lutte contre la désinformation et l'utilisation frauduleuse des photos en ligne.
Pour cela, les entreprises ont collaboré sur une norme ouverte pour les signatures numériques interopérables nommée « Verify ». Une fois en place, les photos prises avec le matériel approprié pourront être vérifiées en ligne gratuitement afin que les gens puissent déterminer si une photo est authentique ou non.
Si une photo générée par l'IA tente de passer le système Verify sans signature authentique, elle est étiquetée comme « Aucune information d'identification de contenu ».
source : CanonAu lieu de marquer rétroactivement le contenu de l’IA, le plan authentifie directement les vraies photos à l’origine. Mais comme tout autre système de filigrane, son succès dépendra d’une adoption généralisée (un plus grand nombre de fabricants de matériel intègrent la norme) et d’une mise en œuvre à l’épreuve du temps (le code évolue pour rester inpiratable).
Comme l'a rapporté Decrypt, des recherches récentes indiquent que les techniques anti-filigrane pourraient également compromettre les signatures intégrées, rendant les méthodes de filigrane actuelles inutiles. Cependant, cela ne fait que rendre les images filigranées non filigranées, de sorte que les utilisateurs disposent de moins d'outils pour détecter leur caractère artificiel.
Bien que les techniques anti-filigrane puissent potentiellement supprimer les signatures d’authenticité des vraies photos, cela est moins problématique que la suppression des filigranes des fausses images générées par l’IA. Pourquoi? Si un filigrane est supprimé d’un deepfake AI, cela permet au contenu contrefait de passer plus facilement pour réel. Cependant, si les signatures d’authentification sont piratées à partir de photos réelles, l’image restante est toujours capturée par un appareil photo : elle ne provient pas d’un modèle génératif. Même s’il perd sa preuve cryptographique, le contenu sous-jacent reste authentique.
Le principal risque dans ce cas est lié à l'attribution et à la gestion des droits, et non à la véracité du contenu. L'image pourrait être mal créditée ou utilisée sans licence appropriée, mais elle n'induise pas en soi les spectateurs en erreur sur la réalité qu'elle représente.
OpenAI a récemment annoncé un détecteur de deepfake alimenté par l'IA qui, selon lui, a une précision de 99 % sur les images. Pourtant, les détecteurs d’IA restent imparfaits et font l’objet d’une mise à niveau constante pour devancer les évolutions de la technologie générative.
La récente montée en puissance des deepfakes a en effet mis en lumière la nécessité de telles stratégies. Comme nous l’avons vu en 2023, la nécessité de faire la différence entre le contenu réel et le contenu fabriqué n’a jamais été aussi aiguë. Les politiciens et les développeurs technologiques se démènent pour trouver des solutions viables, donc un peu d’aide de ces entreprises est sûrement appréciée.
Edité par Ryan Ozawa.

Restez au courant de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte de réception.