AI Undressing  : les services Deepfake Nude montent en flèche en popularité


Le fléau de la création malveillante de deepfakes s’est étendu bien au-delà du domaine des célébrités et des personnalités publiques, et un nouveau rapport sur l’imagerie intime non consensuelle (NCII) révèle que cette pratique ne fait que croître à mesure que les générateurs d’images évoluent et prolifèrent.

Le « déshabillage par l’IA » est en hausse, a indiqué vendredi un rapport de la société d’analyse des médias sociaux Graphika, décrivant cette pratique comme l’utilisation d’outils d’IA générative optimisés pour retirer les vêtements des images téléchargées par les utilisateurs.

La communauté des jeux vidéo et du streaming Twitch a été aux prises avec le problème plus tôt cette année lorsque l’éminent diffuseur Brandon ‘Atrioc’ Ewing a accidentellement révélé qu’il avait regardé du porno deepfake généré par l’IA de streameuses qu’il appelait ses amies, selon un rapport de Kotaku.

AI Undressing  : les services Deepfake Nude montent en flèche en popularité

Ewing est revenu sur la plate-forme en mars, contrit et rendant compte des semaines de travail qu’il avait entrepris pour atténuer les dégâts qu’il avait causés. Mais l’incident a ouvert les vannes à toute une communauté en ligne.

Le rapport de Graphika montre que l’incident n’était qu’une goutte d’eau dans l’océan.

a écrit Santiago Lakatos, analyste du renseignement chez Graphika. « Ceux-ci ont totalisé 1 280 en 2022, contre plus de 32 100 jusqu’à présent cette année, ce qui représente une augmentation de 2 408 % en volume sur un an. »

Graphika, basée à New York, affirme que l’explosion du NCII montre que les outils sont passés de forums de discussion de niche à une industrie artisanale.

a déclaré Graphika. « Sans ces fournisseurs, leurs clients devraient héberger, maintenir et exécuter leurs propres modèles de diffusion d’images personnalisés, un processus long et parfois coûteux. »

Graphika prévient que la popularité croissante des outils de déshabillage de l’IA pourrait conduire non seulement à de faux contenus pornographiques, mais également à un harcèlement ciblé, à la sextorsion et à la génération de matériels d’abus sexuels sur des enfants (CSAM).

Selon le rapport Graphika, les développeurs d’outils de déshabillage d’IA font de la publicité sur les réseaux sociaux pour diriger les utilisateurs potentiels vers leurs sites Web, leurs chats privés Telegram ou leurs serveurs Discord où les outils peuvent être trouvés.

selon eux »

Alors que les IA de déshabillage se concentrent généralement sur les images, l’IA a également été utilisée pour créer des vidéos deepfakes à l’effigie de célébrités, notamment la personnalité de YouTube, M. Beast, et l’acteur emblématique d’Hollywood, Tom Hanks.

Certains acteurs comme Scarlett Johansson et l’acteur indien Anil Kapoor se tournent vers le système judiciaire pour lutter contre la menace persistante des deepfakes de l’IA. Pourtant, même si les artistes grand public peuvent attirer davantage l’attention des médias, les artistes adultes affirment que leur voix est rarement entendue.

« C’est vraiment difficile », a déclaré Tanya Tate, artiste adulte légendaire et responsable des relations publiques de Star Factory, à Decrypt plus tôt. « Si quelqu’un appartient au courant dominant, je suis sûr que c’est beaucoup plus facile. »

Même sans l’essor de l’IA et de la technologie deepfake, Tate a expliqué que les réseaux sociaux regorgent déjà de faux comptes utilisant sa vraisemblance et son contenu. La stigmatisation constante à laquelle sont confrontées les travailleuses du sexe, les obligeant, elles et leurs fans, à rester dans l’ombre n’arrange pas les choses.

En octobre, la société de surveillance Internet basée au Royaume-Uni, Internet Watch Foundation (IWF), a noté dans un rapport distinct que plus de 20 254 images d’abus sur des enfants avaient été trouvées sur un seul forum du dark web en seulement un mois. L’IWF a averti que la pédopornographie générée par l’IA pourrait « submerger » Internet.

Grâce aux progrès de l’imagerie générative de l’IA, l’IWF prévient que la pornographie deepfake a progressé au point où faire la différence entre les images générées par l’IA et les images authentiques est devenu de plus en plus complexe, obligeant les forces de l’ordre à poursuivre des fantômes en ligne au lieu de véritables victimes d’abus.

et par conséquent, vous ne pouvez pas non plus leur faire confiance. »

Quant à Ewing, Kotaku a rapporté que le streamer était revenu en disant qu’il travaillait avec des journalistes, des technologues, des chercheurs et des femmes touchées par l’incident depuis sa transgression en janvier. Ewing a également déclaré qu’il avait envoyé des fonds au cabinet d’avocats Morrison Cooper, basé à Los Angeles, pour fournir des services juridiques à toute femme sur Twitch qui avait besoin de son aide pour émettre des avis de retrait aux sites publiant des images d’elles.

Ewing a ajouté qu’il avait reçu des recherches sur la profondeur du problème des deepfakes de la part de la mystérieuse chercheuse Geneviève Oh.

« J’ai essayé de trouver les ‘points positifs’ dans la lutte contre ce type de contenu », a déclaré Ewing.