Services qui criam nues faux avec IA ganham popularité


La création malveillante de Deepfake a été très répandue chez moi par des célébrités et des personnages publics. Une nouvelle relation avec les images intimes non consensuelles (NCII en anglais) révèle que la pratique est en train de croître à mesure que les générateurs d’images évoluent et prolifèrent. Le « déshabillage de l’IA » (« Despir-se por IA ») est en train d’augmenter, grâce à un rapport de l’entreprise d’analyse des médias sociaux. Graphique publié dans une sexta-feira (8), décrit en pratique comme l’utilisation des outils générateurs d’IA ajustés pour Remover Roupas d’images envoyées par les utilisateurs.

La communauté de jeux et de streaming de Twitch est confrontée à un problème au début de cette année, lorsque le principal interlocuteur Brandon ‘Atrioc’ Ewing révèle que sa vente de pornographique deepfake est due à l’IA de streamers que les amis de ses amis, selon un rapport de Kotaku..

Ewing voltou à plataforma em março, arrependido et relatando semanas de trabalho qui se consacre à mitigar os danos que causou. Mais l’incident s’est ouvert comme comportement pour toute une communauté en ligne.

Services qui criam nues faux avec IA ganham popularité

Le rapport du graphisme montre que l’incident a été trouvé dans l’océan.

nous avons consulté le numéro de commentaires et de postages sur Reddit et X avec des liens de référence pour 34 sites et 52 chaînes de Telegram qui fournissent des services NCII synthétiques », a écrit l’analyste de l’intelligence de Graphika, Santiago Lakatos.

«Ce total a atteint 1.280 en 2022, en comparaison avec plus de 32.100 il y a un an, ce qui représente une augmentation de 2.408% par rapport au volume de l’année à l’année».

À Graphika, comme à Nova York, EUA, l’explosion du NCII a montré que les ferramentas passaient des forums de discussion sur ce sujet pour une industrie.

dit Graphika

Graphique alertant sur l’augmentation de la popularité des activités de l’IA pour qu’il soit possible de ne pas avoir de matériel pornographique faux, mais également d’aller à l’encontre de l’extorsion sexuelle et de la génération de matériel d’abus sexuel infantile (CSAM na sigla em anglais).

Selon le rapport Graphika, les développeurs de liens de IA annoncent les réseaux sociaux pour attirer les utilisateurs potentiels de leurs sites, les propriétaires privés de Telegram ou les serveurs Discord peuvent également être trouvés.

écrit Graphika.

en même temps qui incluent des objets associés au NCII synthétique avec leurs produits et services postaux », a-t-il déclaré.

Deepfake avec des célébrités

Alors que les intelligences artificielles du désir se concentrent normalement sur les images, elles sont également utilisées pour créer des vidéos avec des deepfakes de célébrités, y compris la personnalité de YouTube, Mr. Beast, et l’acteur emblématique d’Hollywood, Tom Hanks.

Les artistes comme Scarlett Johansson et l’indien Anil Kapoor sont également reconnus pour leur combat contre les deepfakes d’IA. Et pourtant, les artistes traditionnels peuvent recevoir plus d’attention du milieu, les artistes du conte adulte disent que leurs voix sont rarement ouvertes.

«C’est vraiment difficile», a déclaré Decrypt à un prêteur porno et chef de Star Factory PR, Tanya Tate. «Se alguém n’está pas mainstream, tenho certeza que é muito plus fácil».

Même lors de l’ascension de l’IA et de la technologie deepfake, Tate a expliqué que le réseau social a des idées fausses en utilisant son image et son contenu. Ce qui n’est pas vrai, c’est que l’estigme continue selon laquelle, en tant que professionnels du sexe, ils s’exposent à ce que, comme eux, ils soient permanents dans leurs ombres.

En outre, une entreprise de surveillance d’Internet du Royaume-Uni, Internet Watch Foundation (IWF), a observé dans des relations séparées que plus de 20 254 images d’abus infantiles ont été trouvées sur un seul forum du darkweb en un mois. L’IWF vous alerte sur le fait que la pornographie infantile peut être « surveillée » par l’IA sur Internet.

Merci pour les avancées des images génératives de IA, l’IWF alerte que la pornographie deepfake a avancé au point de distinguer entre les images générées par IA et les images authentiques qui se tournent chaque fois plus complexe, deixando comme autoridades policiais pour poursuivre les fantasmes en ligne face aux réalités réelles.

donc, vous ne pouvez pas non plus les confier ».

Quant à Ewing, Kotaku a raconté que le streamer avait dit qu’il travaillait avec des journalistes, des techniciens, des pêcheurs et de nombreuses femmes impliquées dans l’incident de sa transgression en janvier.

basé à Los Angeles, pour fournir des services juridiques à toutes les femmes de Twitch qui étaient précises de leur aide pour émettre des avis de suppression pour les sites qui publient des images.

Je crois que vous avez reçu une étude sur le problème profond du deepfake de la mystérieuse chercheuse du sujet, Geneviève Oh.

« Tentez de trouver des « points positifs » contre ce type de contenu », conclut-il.

*Traduit avec l’autorisation de Decrypt.

Que faire pour vendre les mystères du Bitcoin ? Adquira « O Livro de Satoshi », une compilation d’écritures et d’idées de Satoshi Nakamoto

Le post Deepfake  : Les services qui créent des nus faux avec IA ont gagné en popularité et sont apparus en premier sur le portail Bitcoin.