Stability AI Audio Head s'arrête suite à une formation sur du matériel protégé par le droit d'auteur. Est-ce que ça changera quelque chose ?


Troublé par la position publique adoptée par Stability AI concernant l’utilisation de matériel protégé par le droit d’auteur pour former son produit d’IA générative, le responsable de l’audio de l’entreprise, Ed Newton-Rex, a annoncé qu’il quittait l’entreprise. Cette décision a relancé une conversation plus large autour du concept d’« utilisation équitable » et de l’utilisation généralisée du contenu dans les modèles d’IA sans l’autorisation du créateur.

Une bonne politique à chaque fois qu’un nouveau modèle d’IA générative apparaît est de se demander  : quelles sont les données d’entraînement ?

Si l’entreprise ne vous le dit pas, il y a fort à parier qu’elle est formée sans autorisation sur des œuvres protégées par le droit d’auteur.

Stability AI Audio Head s'arrête suite à une formation sur du matériel protégé par le droit d'auteur. Est-ce que ça changera quelque chose ?

« J’ai démissionné de mon rôle de dirigeant de l’équipe audio chez Stability AI, car je ne suis pas d’accord avec l’opinion de l’entreprise selon laquelle la formation de modèles d’IA génératifs sur des œuvres protégées par le droit d’auteur est un » usage équitable «  », a écrit Newton-Rex sur Twitter.

La réponse a été mitigée, certains louant la position de Newton-Rex.

nous ne serions peut-être pas dans ce pétrin. »

Cependant, d’autres ont remis en question sa définition de la violation du droit d’auteur.

« Ainsi, quiconque lit un livre, écoute de la musique, regarde un film, etc. qui l’inspire ensuite à créer, enfreint le droit d’auteur ? » a écrit l’utilisateur de Twitter John Harvey.

Le développeur de l’IA a soumis une déclaration de 22 pages qui incluait le point de vue selon lequel l’IA générative est une utilisation socialement bénéfique du contenu existant protégé par un usage équitable et favorise les objectifs de la loi sur le droit d’auteur.

Alors que la stabilité était au centre du message de Newton-Rex, il a déclaré à Decrypt que le problème dépasse les limites de n’importe quelle entreprise.

« Mon objection ici n’est pas vraiment contre la stabilité, car celle-ci adopte la même approche que de nombreuses autres sociétés d’IA générative dans le secteur », a déclaré Newton-Rex. « C’est vraiment une position intersectorielle à laquelle je m’oppose. En fait, je démissionnais de tout un groupe d’entreprises qui adoptaient la même approche.

Le droit d’auteur fait référence au droit légal des créateurs de contrôler l’utilisation de leur œuvre. L’utilisation équitable, en revanche, permet une utilisation limitée du matériel protégé par le droit d’auteur à des fins éducatives, de révision ou de recherche. Dans un monde parfait, ces concepts aboutiraient à un équilibre entre la capacité d’un créateur à utiliser et à tirer profit de son contenu et les intérêts du public.

En octobre, un groupe d’auteurs, dont John Grisham et le créateur de Game of Thrones, George RR Martin, se sont joints à un procès contre le créateur de ChatGPT, OpenAI, affirmant que leur travail avait été intégré aux données de formation des modèles d’IA populaires. Le même mois, un procès similaire contre Midjourney, Deviant Art et Stability AI s’est heurté à un obstacle lorsqu’un juge fédéral a statué que les plaignants n’avaient pas fourni suffisamment de preuves pour étayer leur plainte pour violation du droit d’auteur.

Newton-Rex a déclaré que le modèle audio de Stability AI avait été formé sur de la musique sous licence de la plate-forme de bibliothèque musicale numérique AudioSparx.

avec la philosophie suivante : si notre modèle fonctionne bien, alors ils réussissent bien », a-t-il expliqué. « C’est l’idée, et c’est une façon dont je pense que cela peut fonctionner. »

« Je ne pense pas que l’IA générative et les industries créatives doivent être des ennemis », a poursuivi Newton-Rex. « Ils peuvent travailler ensemble. »

Mais s’il est optimiste quant à la capacité des créatifs et des développeurs d’IA à s’aligner, il reconnaît que les artistes ont le droit de s’inquiéter de la manière dont le texte, la musique et d’autres médias sont utilisés pour former des modèles d’IA.

Newton-Rex a réitéré que la diffusion stable de Stability AI a été formée sur des informations accessibles au public. Cependant, il a déclaré qu’il était courant dans l’industrie d’utiliser des ensembles de données tels que LAION-5B, qui, selon lui, peuvent inclure du matériel protégé par le droit d’auteur récupéré sur Internet.

« Je pense que l’approche plus générale de l’industrie en matière de génération d’images dans d’autres modalités ainsi que de données, notamment dans la génération de texte, semble avoir été d’adopter une vision assez permissive de ce sur quoi vous pouvez vous entraîner, ce avec quoi je ne suis pas d’accord.  » il a dit.

Même si Newton-Rex a déclaré qu’il n’avait pas de plan particulier lorsqu’il a quitté Stability AI, il a déclaré que la conversation sur le droit d’auteur et l’utilisation équitable était vitale.

et nous devons prendre une décision à ce sujet. »