ChatGPT fait face à un blocage potentiel en Allemagne 1 semaine après l'interdiction de l'Italie


Le commissaire allemand à la protection des données envisage d’interdire ChatGPT en raison de problèmes de sécurité des données, à l’instar de l’Italie.

Pas plus tard que la semaine dernière, l’Autorité italienne de protection des données a restreint l’utilisation du ChatGPT d’OpenAI en Italie.

Pourquoi ChatGPT a déclenché une guerre de la confidentialité des données

Les autorités italiennes ont ouvert une enquête temporaire sur une éventuelle violation des lois sur la vie privée par l’application AI.

ChatGPT fait face à un blocage potentiel en Allemagne 1 semaine après l'interdiction de l'Italie

Reuters a rapporté que le pays avait déclaré qu’il collaborerait avec toutes les autorités de protection des données de l’UE sur cette question.

L’Institut à but non lucratif Future of Life, y compris des personnalités notables comme Elon Musk, a publié une lettre ouverte avant que les nations européennes n’imposent une répression. Ils ont plaidé pour un arrêt de l’avancement des systèmes d’IA en raison de leurs « risques importants pour la société et l’humanité ».

Au moment de la rédaction de cet article, la lettre comptait plus de 5 500 signatures appelant à « interrompre immédiatement pendant au moins 6 mois la formation de systèmes d’IA plus puissants que GPT-4 ».

L’innovation souffrira-t-elle de l’examen minutieux ?

Comme de nombreuses autres entreprises, OpenAI a développé GPT-4 pour intensifier l’apprentissage en profondeur et améliorer les modèles de langage. Sur un certain nombre de références académiques et professionnelles, le GPT-4 de ChatGPT garantissait des « performances de niveau humain ». La question est de savoir si d’autres entreprises devront mettre un terme à la croissance dans l’espace au milieu de la répression

La semaine dernière, le Center for AI and Digital Policy (CAIDP) à but non lucratif s’est plaint à la Federal Trade Commission (FTC) des États-Unis que le ChatGPT d’OpenAI, basé sur le modèle de langage GPT-4, est « biaisé, trompeur et présente un risque pour la vie privée et la sécurité publique. »

qui rejoint RoBERTa de Facebook AI et Microsoft Bing AI pour rivaliser dans l’espace.

il est de la responsabilité des chefs d’entreprise de travailler sur la transparence.

/h3>

Cet article de presse vise à fournir des informations précises et opportunes