Le chatbot Claude AI déclaré interdit aux candidats politiques

  • Anthropic interdit l'utilisation de son chatbot Claude AI aux candidats politiques.
  • Claude ne peut pas être utilisé pour créer des chatbots pouvant prétendre être des candidats ou pour des campagnes politiques ciblées.
  • Des mesures strictes sont en place pour empêcher les abus de l'IA dans le domaine politique, avec d'autres entreprises technologiques prenant également des initiatives similaires.

Si Joe Biden souhaite qu'un chatbot IA intelligent et convivial réponde à ses questions, son équipe de campagne ne pourra pas utiliser Claude, le concurrent ChatGPT d'Anthropic, a annoncé aujourd'hui la société.

autorisons personne à utiliser Claude pour des campagnes politiques ciblées », a annoncé la société. Les violations de cette politique donneront lieu à des avertissements et, finalement, à la suspension de l'accès aux services d'Anthropic.

L'expression publique par Anthropic de sa politique d'« utilisation abusive des élections » intervient alors que le potentiel de l'IA à générer en masse des informations, des images et des vidéos fausses et trompeuses déclenche la sonnette d'alarme dans le monde entier.

Le chatbot Claude AI déclaré interdit aux candidats politiques

Meta a mis en œuvre des règles restreignant l’utilisation de ses outils d’IA en politique l’automne dernier, et OpenAI a des politiques similaires.

Anthropic a déclaré que ses protections politiques se répartissent en trois catégories principales  : développer et appliquer des politiques liées aux questions électorales, évaluer et tester des modèles contre d'éventuelles utilisations abusives et diriger les utilisateurs vers des informations de vote précises.

La politique d'utilisation acceptable d'Anthropic – que tous les utilisateurs acceptent ostensiblement avant d'accéder à Claude – interdit l'utilisation de ses outils d'IA à des fins de campagne politique et d'efforts de lobbying. La société a déclaré qu'il y aurait des avertissements et des suspensions de service pour les contrevenants, avec un processus d'examen humain en place.

L'entreprise mène également une « équipe rouge » rigoureuse de ses systèmes : des tentatives agressives et coordonnées de la part de partenaires connus pour « jailbreaker » ou utiliser Claude à des fins néfastes.

explique Anthropic. En outre, la société a déclaré avoir développé une suite de tests pour garantir la « parité politique » – une représentation comparative entre les candidats et les sujets.

utiliser son outil d'IA générative.

« Si un utilisateur basé aux États-Unis demande des informations sur le vote, une fenêtre contextuelle lui proposera d'être redirigé vers TurboVote, une ressource de l'organisation non partisane Democracy Works », a expliqué Anthropic, une solution qui sera déployée « sur toute la planète ». prochaines semaines » – avec l’intention d’ajouter ensuite des mesures similaires dans d’autres pays.

Les efforts d'Anthropic s'alignent sur un mouvement plus large au sein de l'industrie technologique pour relever les défis que l'IA pose aux processus démocratiques. Par exemple, la Federal Communications Commission des États-Unis a récemment interdit l’utilisation de fausses voix générées par l’IA dans les appels automatisés, une décision qui souligne l’urgence de réglementer l’application de l’IA dans la sphère politique.

À l'instar de Facebook, Microsoft a annoncé des initiatives visant à lutter contre les publicités politiques trompeuses générées par l'IA, en introduisant des « informations d'identification de contenu en tant que service » et en lançant un centre de communications électorales.

Quant aux candidats créant des versions IA d’eux-mêmes, OpenAI a déjà dû s’attaquer au cas d’utilisation spécifique. La société a suspendu le compte d'un développeur après avoir découvert qu'elle avait créé un robot imitant le candidat présidentiel, le représentant Dean Phillips. Cette décision a eu lieu après qu'une pétition portant sur l'utilisation abusive de l'IA dans les campagnes politiques a été introduite par l'organisation à but non lucratif Public Citizen, demandant au régulateur d'interdire l'IA générative dans les campagnes politiques.

Anthropic a refusé tout autre commentaire et OpenAI n'a pas répondu à une demande de Decrypt.