Des artistes tentent de contrecarrer l’IA avec des logiciels empoisonnant les données et des poursuites judiciaires

  • Des plateformes d'IA utilisent des ensembles de données protégées par le droit d'auteur sans autorisation, ce qui soulève des questions sur la propriété intellectuelle.
  • Getty Images poursuit Stability AI pour avoir utilisé ses images sans permission, mais prouver cette violation peut être difficile étant donné la grande quantité de données utilisées.
  • Des chercheurs ont développé un logiciel appelé Nightshade qui permet aux artistes d'alt

Alors que l’utilisation de l’intelligence artificielle (IA) a imprégné l’espace médiatique créatif – en particulier l’art et le design – la définition de la propriété intellectuelle (PI) semble évoluer en temps réel alors qu’il devient de plus en plus difficile de comprendre ce qui constitue le plagiat.

Au cours de l’année écoulée, les plateformes artistiques basées sur l’IA ont repoussé les limites des droits de propriété intellectuelle en utilisant de vastes ensembles de données à des fins de formation, souvent sans l’autorisation explicite des artistes qui ont créé les œuvres originales.

Par exemple, des plates-formes telles que DALL-E d’OpenAI et le service Midjourney proposent des modèles d’abonnement, monétisant indirectement le matériel protégé par le droit d’auteur qui constitue leurs ensembles de données de formation.

Des artistes tentent de contrecarrer l’IA avec des logiciels empoisonnant les données et des poursuites judiciaires

À cet égard, une question importante s’est posée  : « Ces plateformes fonctionnent-elles dans le cadre des normes établies par la doctrine de « l’utilisation équitable », qui, dans sa version actuelle, autorise l’utilisation d’œuvres protégées par le droit d’auteur à des fins de critique, de commentaire, de reportage, d’enseignement et de recherche ? à des fins ?

un important fournisseur de photos d’archives Stable Diffusion, d’enfreindre les lois sur le droit d’auteur et les marques en utilisant des images de son catalogue sans autorisation, en particulier celles avec des filigranes.

Cependant, les plaignants doivent présenter des preuves plus complètes pour étayer leurs affirmations, ce qui pourrait s’avérer difficile puisque l’IA de Stable Diffusion a été entraînée sur un énorme cache de plus de 12 milliards d’images compressées.

Dans une autre affaire connexe, les artistes Sarah Andersen, Kelly McKernan et Karla Ortiz ont engagé des poursuites judiciaires contre Stable Diffusion, Midjourney et la communauté artistique en ligne DeviantArt en janvier, accusant les organisations de violer les droits de « millions d’artistes » en entraînant leurs outils d’IA à l’aide de cinq milliards d’images récupérées sur le Web « sans le consentement des artistes originaux ».

Logiciel d’empoisonnement de l’IA

Répondant aux plaintes d’artistes dont les œuvres ont été plagiées par l’IA, des chercheurs de l’Université de Chicago ont récemment publié un outil appelé Nightshade, qui permet aux artistes d’intégrer des altérations indétectables dans leurs œuvres.

Ces modifications, bien qu’invisibles à l’œil humain, peuvent empoisonner les données d’entraînement de l’IA. De plus, des changements subtils de pixels peuvent perturber les processus d’apprentissage des modèles d’IA, conduisant à un étiquetage et une reconnaissance incorrects.

Même une poignée de ces images peuvent corrompre le processus d’apprentissage de l’IA. Par exemple, une expérience récente a montré que l’introduction de quelques dizaines d’images déformées suffisait à altérer considérablement le résultat de Stable Diffusion.

L’équipe de l’Université de Chicago avait précédemment développé son propre outil appelé Glaze, destiné à masquer le style d’un artiste de la détection de l’IA. Leur nouvelle offre, Nightshade, devrait être intégrée à Glaze, élargissant ainsi ses capacités.

‘ Je suppose que nous leur donnons simplement un petit coup de pouce supplémentaire sur le plan éthique a-t-il ajouté.

Zhao a noté que la plate-forme ne peut pas annuler les effets sur l’art déjà traités par les anciens modèles d’IA. De plus, des inquiétudes existent quant à une éventuelle utilisation abusive du logiciel à des fins malveillantes, telles que la contamination de générateurs d’images numériques à grande échelle.

Cependant, Zhao est convaincu que ce dernier cas d’utilisation serait difficile car il nécessite des milliers d’échantillons empoisonnés.

Récent : IA et fonds de pension : l’IA est-elle une valeur sûre pour l’investissement retraite ?

Alors que l’artiste indépendante Autumn Beverly estime que des outils comme Nightshade et Glaze lui ont permis de partager à nouveau son travail en ligne sans crainte d’abus, Marian Mazzone, experte associée au laboratoire d’art et d’intelligence artificielle de l’université Rutgers, pense que de tels outils ne pourraient pas être utilisés. fournir une solution permanente, suggérant que les artistes devraient poursuivre des réformes juridiques pour résoudre les problèmes actuels liés aux images générées par l’IA.

Asif Kamal, PDG d’Artfi, une solution Web3 pour investir dans les beaux-arts, a déclaré à Cointelegraph que les créateurs utilisant des outils d’empoisonnement des données par l’IA remettent en question les notions traditionnelles de propriété et de paternité tout en incitant à une réévaluation du droit d’auteur et du contrôle créatif :

« L’utilisation d’outils d’empoisonnement des données soulève des questions juridiques et éthiques concernant la formation en IA sur les œuvres d’art numériques accessibles au public. Les gens débattent de questions telles que le droit d’auteur, l’utilisation équitable et le respect des droits des créateurs originaux. Cela dit, les sociétés d’IA travaillent désormais sur diverses stratégies pour faire face à l’impact des outils d’empoisonnement des données comme Nightshade et Glaze sur leurs modèles d’apprentissage automatique. Cela inclut l’amélioration de leurs défenses, l’amélioration de la validation des données et le développement d’algorithmes plus robustes pour identifier et atténuer les stratégies d’empoisonnement des pixels.

Yubo Ruan, fondateur de ParaX, une plate-forme Web3 alimentée par l’abstraction de compte et une machine virtuelle sans connaissance, a déclaré à Cointelegraph qu’à mesure que les artistes continuent d’adopter des outils d’empoisonnement de l’IA, il faut réimaginer ce que constitue l’art numérique et comment sa propriété et l’originalité est déterminée.

« Nous avons besoin d’une réévaluation des cadres actuels de propriété intellectuelle pour tenir compte des complexités introduites par ces technologies. L’utilisation d’outils d’empoisonnement des données met en lumière des préoccupations juridiques concernant le consentement et la violation du droit d’auteur, ainsi que des problèmes éthiques liés à l’utilisation d’œuvres d’art publiques sans indemniser ni reconnaître équitablement leurs propriétaires d’origine », a-t-il déclaré.

Pousser les lois sur la propriété intellectuelle à leurs limites

Au-delà du domaine de l’art numérique, l’influence de l’IA générative se fait également sentir dans d’autres domaines, notamment le monde universitaire et le contenu vidéo. En juillet, la comédienne Sarah Silverman, aux côtés des auteurs Christopher Golden et Richard Kadrey, a intenté une action en justice contre OpenAI et Meta devant un tribunal de district américain, accusant les géants de la technologie de violation du droit d’auteur.

Le litige affirme que ChatGPT d’OpenAI et Llama de Meta ont été formés sur des ensembles de données provenant de sites de « bibliothèques fantômes » illicites, contenant prétendument les œuvres protégées par le droit d’auteur des plaignants. Les poursuites soulignent des cas spécifiques où ChatGPT a résumé ses livres sans inclure d’informations sur la gestion des droits d’auteur, en utilisant Silverman’s Bedwetter, Golden’s Ararat et Kadrey’s Sandman Slim comme exemples clés.

Par ailleurs, le procès contre Meta affirme que les modèles Llama de la société ont été formés à l’aide d’ensembles de données provenant d’origines tout aussi douteuses, citant spécifiquement The Pile d’EleutherAI, qui aurait inclus du contenu du tracker privé Bibliotik.

Récent  : Cas d’utilisation réels de l’IA dans la cryptographie  : marchés de l’IA basés sur la cryptographie et analyse financière de l’IA

Les auteurs affirment qu’ils n’ont jamais consenti à ce que leurs œuvres soient utilisées de cette manière et demandent donc des dommages-intérêts et une restitution.

de nombreuses entreprises semblent aux prises avec l’immensité de la proposition technologique présentée par ce paradigme naissant.

Alors que des sociétés comme Adobe ont commencé à utiliser une marque pour signaler les données générées par l’IA, des sociétés comme Google et Microsoft se sont déclarées prêtes à faire face à toute pression juridique si leurs clients étaient poursuivis pour violation du droit d’auteur lors de l’utilisation de leurs produits d’IA générative.