Est-ce Joe Biden ou un Deepfake IA ? La Maison Blanche envisage de marquer le contenu authentique

  • La Maison Blanche envisage d'utiliser la technologie cryptographique pour marquer le contenu authentique et lutter contre les deepfakes générés par l'IA.
  • Des entreprises comme Nikon, Sony et Canon ont également annoncé un partenariat pour inclure une signature numérique dans leurs images afin de lutter contre les images générées par l'IA.
  • Certains experts affirment que la sensibilisation et la législation sont nécessaires pour contrer la menace des deepfakes.

l'administration intensifie ses efforts pour authentifier les communications officielles de la Maison Blanche.

Alors que la boîte de Pandore de l'IA est grande ouverte, les technologues et les éthiciens se démènent pour trouver des moyens de lutter contre les deepfakes générés par l'IA. La Maison Blanche affirme désormais qu’elle étudie l’utilisation de la technologie cryptographique pour désigner un contenu authentique.

« Nous ne voulons pas entraver la créativité qui pourrait découler de la disponibilité d'″

Est-ce Joe Biden ou un Deepfake IA ? La Maison Blanche envisage de marquer le contenu authentique

Buchanan a déclaré qu'après que l'administration Biden a rencontré plus d'une douzaine de développeurs d'IA en 2023, les entreprises ont convenu d'intégrer des filigranes dans leurs produits avant de les rendre publics. Cependant, les filigranes peuvent être manipulés et entièrement supprimés, ce qui rend l’approche inverse attrayante.

élaborer des normes de filigrane par l'un ensemble clair de règles de conduite et d'orientations sur la manière de répondre à certains de ces problèmes. filigrane et contenu épineux, problèmes de provenance », a déclaré Buchanan à Yahoo Finance.

Un porte-parole de la Maison Blanche n'a pas immédiatement répondu à une demande de commentaire de Decrypt.

La semaine dernière, l’administration Biden a annoncé le lancement de l’US AI Safety Institute avec des participants tels qu’OpenAI, Microsoft, Google, Apple et Amazon. L’Institut, a déclaré l’administration, est né du décret de Biden visant l’industrie de l’IA en octobre.

Développer l’IA pour détecter les deepfakes est devenu une industrie artisanale. Cependant, certains s’opposent à cette pratique, affirmant qu’elle ne fera qu’aggraver le problème.

« Utiliser l’IA pour détecter l’IA ne fonctionnera pas. Au lieu de cela, cela crée une course aux armements sans fin. Les méchants gagneront toujours », a déclaré à Decrypt le co-fondateur et PDG de la société de vérification d'identité IDPartner Rod Boothby. « La solution est d'inverser le problème et de permettre aux gens de prouver leur identité en ligne. Utiliser l’identité bancaire est la solution évidente au problème.

Boothby souligne l'utilisation par le secteur bancaire de « l'authentification continue » pour garantir que la personne participant à une session Internet anonyme est bien celle qu'elle prétend être.

Pour Star Kashman, spécialiste de la cybersécurité et du droit, se protéger contre les deepfakes revient à la prise de conscience.

 » Si votre famille est informée d'une arnaque téléphonique courante par l'IA où des fraudeurs appellent en prétendant avoir kidnappé un membre de la famille et utilisent l'IA pour imiter la voix de ce membre de la famille, alors la personne qui reçoit l'appel saura peut-être vérifier ce parent avant de payer. une fausse rançon pour quelqu’un qui n’a jamais disparu.

L’appel automatisé de Biden a été attribué à une société de télécommunications basée au Texas. Après avoir émis une ordonnance d'interdiction à Lingo Telecom LLC. la Commission fédérale des communications des États-Unis a adopté une nouvelle règle rendant illégaux les appels automatisés utilisant des voix IA.

Même si Kashman a déclaré que la sensibilisation reste le meilleur moyen d'éviter d'être victime d'une arnaque par les deepfakes de l'IA, elle a reconnu que la menace nécessite l'intervention du gouvernement.

« En ce qui concerne les deep fakes, la connaissance n'empêche pas les individus de les créer », a déclaré Kashman. « Cependant, la connaissance peut ajouter plus de pression sur le gouvernement, ce qui est nécessaire pour adopter une loi rendant illégale au niveau fédéral la création de contrefaçons illicites et non consensuelles. »