La désinformation sur l'IA pourrait bouleverser les élections de 2024  : voici comment OpenAI prévoit de la combattre

  • OpenAI présente son plan pour combattre la désinformation liée à l'IA avant les élections de 2024.
  • Ils travaillent à prévenir les abus, y compris les deepfakes trompeurs.
  • OpenAI met en œuvre des mesures de transparence et d'accès aux informations de vote faisant autorité.

OpenAI a présenté lundi son plan pour contribuer à garantir la transparence du contenu généré par l'IA et à améliorer la fiabilité des informations de vote avant les élections de 2024.

une telle IA. a alimenté la désinformation au milieu d’élections importantes, notamment la course à la présidentielle américaine.

notre approche consiste à poursuivre notre travail de sécurité de la plateforme en élevant des informations de vote précises, en appliquant des politiques mesurées et en améliorant la transparence », a déclaré OpenAI dans un article de blog.

La désinformation sur l'IA pourrait bouleverser les élections de 2024  : voici comment OpenAI prévoit de la combattre

OpenAI a ajouté qu’il « rassemble l’expertise de nos équipes en matière de systèmes de sécurité, de renseignements sur les menaces, juridiques, d’ingénierie et politiques pour enquêter et traiter rapidement les abus potentiels ».

  • Travailler à prévenir les abus, y compris les deepfakes trompeurs
  • Assurer la transparence sur le contenu généré par l'IA
  • co/qsysYy5l0L

En août, la Commission électorale fédérale américaine a déclaré qu’elle allait examiner une pétition visant à interdire les publicités de campagne générées par l’IA, le commissaire de la FEC, Allen Dickerson, déclarant : « De sérieuses préoccupations liées au Premier amendement se cachent derrière cet effort. »

on leur poserait « certaines questions procédurales liées aux élections ». L'entreprise affirme que la mise en œuvre de ces changements éclairera son approche à l'échelle mondiale.

« Nous sommes impatients de continuer à travailler avec nos partenaires et à apprendre de ceux-ci pour anticiper et prévenir les abus potentiels de nos outils à l'approche des élections mondiales de cette année », ajoute le communiqué.

Dans ChatGPT, OpenAI a déclaré qu'il empêche les développeurs de créer des chatbots qui prétendent être de vraies personnes ou institutions comme des fonctionnaires et des bureaux du gouvernement. Selon OpenAI, les applications visant à empêcher les gens de voter, notamment en décourageant le vote ou en déformant qui a le droit de voter, ne sont pas non plus autorisées.

Les deepfakes, les fausses images, vidéos et fichiers audio créés à l'aide de l'IA générative sont devenus viraux l'année dernière, plusieurs mettant en vedette le président américain Joe Biden, l'ancien président Donald Trump et même le pape François devenant le centre des images partagées sur les réseaux sociaux.

Pour empêcher son générateur d'images Dall-E 3 d'être utilisé dans des campagnes de deepfake, OpenAI a annoncé qu'il mettrait en œuvre les informations d'identification de contenu de la Coalition for Content Provenance and Authenticity qui ajoutent une marque ou une « icône » à une image générée par l'IA.

« Nous expérimentons également un classificateur de provenance, un nouvel outil de détection des images générées par Dall-E », a déclaré OpenAI. « Nos tests internes ont montré des premiers résultats prometteurs, même lorsque les images ont été soumises à des types courants de modifications. »

Le mois dernier, le pape François a appelé les dirigeants du monde entier à adopter un traité international contraignant pour réglementer l’IA.

afin que le progrès numérique puisse se produire dans les conditions voulues. respecter la justice et contribuer à la cause de la paix », a déclaré François.

Pour lutter contre la désinformation, OpenAI a déclaré que ChatGPT commencerait à fournir des informations en temps réel à l'échelle mondiale, y compris des citations et des liens.

information et à décider eux-mêmes à quoi ils peuvent faire confiance », a déclaré la société.

IA d'accéder aux archives d'articles de presse du média mondial.

OpenAI sur l'attribution dans les reportages d'actualité interviennent alors que la société fait face à plusieurs poursuites en matière de droits d'auteur, notamment de la part du New York Times. En décembre, le Times a poursuivi OpenAI et Microsoft, le plus grand investisseur d'OpenAI, alléguant que des millions de ses articles avaient été utilisés pour entraîner ChatGPT sans autorisation.

« OpenAI et Microsoft ont bâti une entreprise évaluée à plusieurs dizaines de milliards de dollars en prenant les œuvres combinées de l'humanité sans autorisation », indique le procès. « En entraînant leurs modèles, les accusés ont reproduit du matériel protégé par le droit d'auteur pour exploiter précisément ce que la loi sur le droit d'auteur a été conçue. à protéger  : les éléments d'expression protégeables qu'ils contiennent, comme le style, le choix des mots, ainsi que l'agencement et la présentation des faits. »

OpenAI a qualifié le procès du New York Times de « sans fondement », alléguant que la publication avait manipulé ses invites pour que le chatbot génère des réponses comme les articles du Times.