Google, Meta et OpenAI s'unissent à d'autres géants de l'industrie contre les images de maltraitance des enfants par l'IA

Pour lutter contre la diffusion de matériel pédopornographique (CSAM), une coalition des meilleurs développeurs d’IA générative, dont Google, Meta et OpenAI, s’est engagée à appliquer des garde-fous autour de la technologie émergente.
Le groupe a été réuni par deux organisations à but non lucratif : le groupe technologique pour enfants Thorn et All Tech is Human, basé à New York. Anciennement connue sous le nom de DNA Foundation, Thorn a été lancée en 2012 par les acteurs Demi Moore et Ashton Kutcher.
L’engagement collectif a été annoncé mardi avec un nouveau rapport Thorn prônant un principe de « sécurité dès la conception » dans le développement de l’IA générative qui empêcherait la création de matériel pédopornographique (CSAM) tout au long du cycle de vie d’un modèle d’IA.
«Nous exhortons toutes les entreprises qui développent, déploient, maintiennent et utilisent des technologies et des produits d'IA générative à s'engager à adopter ces principes de sécurité dès la conception et à démontrer leur engagement à empêcher la création et la propagation de CSAM, AIG-CSAM et d'autres actes sexuels sur des enfants. abus et exploitation », a déclaré Thorn dans un communiqué.
AIG-CSAM est un CSAM généré par l'IA, dont le rapport illustre qu'il peut être relativement facile à créer.
Image : ÉpineThorn développe des outils et des ressources axés sur la défense des enfants contre les abus et l'exploitation sexuels. Dans son rapport d’impact de 2022, l’organisation a déclaré que plus de 824 466 dossiers contenant du matériel pédopornographique avaient été trouvés. L’année dernière, Thorn a signalé que plus de 104 millions de fichiers de CSAM suspectés avaient été signalés rien qu’aux États-Unis.
Déjà un problème en ligne, la pornographie juvénile deepfake a grimpé en flèche après que les modèles d'IA génératifs soient devenus accessibles au public, avec des modèles d'IA autonomes qui n'ont pas besoin de services cloud circulant sur les forums du dark web.
L'IA générative, a déclaré Thorn, rend la création de volumes de contenu plus facile que jamais. Un seul prédateur d’enfants pourrait potentiellement créer d’énormes volumes de matériel pédopornographique (CSAM), notamment en adaptant des images et des vidéos originales en un nouveau contenu.
"Un afflux d'AIG-CSAM présente des risques importants pour un écosystème de sécurité des enfants déjà mis à rude épreuve, exacerbant les défis auxquels sont confrontées les forces de l'ordre pour identifier et secourir les victimes existantes d'abus, et accroître la victimisation d'un plus grand nombre d'enfants", note Thorn.
Le rapport de Thorn décrit une série de principes que les développeurs d'IA générative suivraient pour empêcher que leur technologie soit utilisée pour créer de la pornographie juvénile, notamment l'approvisionnement responsable d'ensembles de données de formation, l'intégration de boucles de rétroaction et de stratégies de tests de résistance, l'utilisation de l'historique ou de la « provenance » du contenu avec une utilisation abusive contradictoire. à l’esprit et en hébergeant de manière responsable leurs modèles d’IA respectifs.
Parmi les autres signataires de cet engagement figurent Microsoft, Anthropic, Mistral AI, Amazon, Stability AI, Civit AI et Metaphysic, chacun publiant aujourd'hui des déclarations distinctes.
"Une partie de notre philosophie chez Metaphysic est le développement responsable dans un monde d'IA, c'est vrai, c'est une question d'autonomisation, mais c'est une question de responsabilité", a déclaré Alejandro Lopez, directeur marketing de Metaphysic. « Nous reconnaissons rapidement que démarrer et développer cela signifie littéralement protéger les plus vulnérables de notre société, à savoir les enfants, et malheureusement, le côté le plus sombre de cette technologie, qui est utilisée pour du matériel d'abus sexuels sur des enfants sous la forme de fausse pornographie., c’est arrivé.
Lancé en 2021, Metaphysic a pris de l'importance l'année dernière après avoir révélé que plusieurs stars hollywoodiennes, dont Tom Hanks, Octavia Spencer et Anne Hathaway, utilisaient la technologie Metaphysic Pro pour numériser les caractéristiques de leur image dans le but de conserver la propriété des traits nécessaires. pour former un modèle d'IA.
OpenAI a refusé de commenter davantage l'initiative, fournissant à la place à Decrypt une déclaration publique de sa responsable de la sécurité des enfants, Chelsea Carlson.
"Nous nous soucions profondément de la sécurité et de l'utilisation responsable de nos outils, c'est pourquoi nous avons intégré des garde-fous et des mesures de sécurité solides dans ChatGPT et DALL-E", a déclaré Carlson dans un communiqué. « Nous nous engageons à travailler aux côtés de Thorn, All Tech is Human et de la communauté technologique au sens large pour respecter les principes de la sécurité dès la conception et poursuivre notre travail visant à atténuer les dommages potentiels causés aux enfants. »
Decrypt a contacté d’autres membres de la Coalition mais n’a pas immédiatement reçu de réponse.
« Chez Meta, nous avons passé plus d'une décennie à travailler pour assurer la sécurité des personnes en ligne. Au cours de cette période, nous avons développé de nombreux outils et fonctionnalités pour aider à prévenir et à combattre les dommages potentiels. Et à mesure que les prédateurs se sont adaptés pour tenter d'échapper à nos protections, nous avons également continué à nous adapter », a déclaré Meta dans un communiqué préparé.
"Dans l'ensemble de nos produits, nous détectons et supprimons de manière proactive les éléments CSAE grâce à une combinaison de technologie de correspondance de hachage, de classificateurs d'intelligence artificielle et d'examens humains", a écrit Susan Jasper, vice-présidente des solutions de confiance et de sécurité de Google, dans un article. « Nos politiques et protections sont conçues pour détecter toutes sortes de CSAE, y compris les CSAM générés par l’IA. Lorsque nous identifions un contenu exploiteur, nous le supprimons et prenons les mesures appropriées, qui peuvent inclure le signalement au NCMEC.
En octobre, l'organisme de surveillance britannique Internet Watch Foundation a averti que les contenus pédopornographiques générés par l'IA pourraient « submerger » Internet.
Edité par Ryan Ozawa.

Restez au courant de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte de réception.