Le PDG d'OpenAI appelle à une nouvelle agence de réglementation pour l'IA
Pour la deuxième fois ce mois-ci, le PDG d’OpenAI, Sam Altman, s’est rendu à Washington pour discuter de l’intelligence artificielle avec des décideurs américains. Altman a comparu devant le Comité du Sénat américain sur la magistrature aux côtés de Christina Montgomery, Chief Privacy & Trust Officer d’IBM, et de Gary Marcus, professeur émérite à l’Université de New York.
Lorsque le sénateur de Louisiane, John Kennedy, a demandé comment ils devraient réglementer l’IA, Altman a déclaré qu’un bureau gouvernemental devrait être formé et chargé d’établir des normes.
« Je formerais une nouvelle agence qui autoriserait tout effort dépassant une certaine échelle de capacités, et qui pourrait retirer cette licence et garantir le respect des normes de sécurité », a déclaré Altman, ajoutant que la future agence devrait exiger des audits indépendants de toute IA. technologie.
« Pas seulement de l’entreprise ou de l’agence, mais des experts qui peuvent dire que le modèle est ou n’est pas conforme aux seuils d’état et de sécurité et à ces pourcentages de performance sur la question X ou Y », a-t-il déclaré.
Alors qu’Altman a déclaré que le gouvernement devrait réglementer la technologie, il a hésité à l’idée de diriger l’agence lui-même. « J’adore mon travail actuel », a-t-il déclaré.
En utilisant la FDA comme exemple, le professeur Marcus a déclaré qu’il devrait y avoir un examen de la sécurité de l’intelligence artificielle similaire à la façon dont les médicaments sont examinés avant d’être autorisés à être mis sur le marché.
« Si vous allez présenter quelque chose à 100 millions de personnes, quelqu’un doit avoir les yeux dessus », a ajouté le professeur Marcus.
L’agence, a-t-il dit, devrait être agile et capable de suivre ce qui se passe dans l’industrie. Il pré-examinerait les projets et les examinerait également après leur sortie dans le monde, avec le pouvoir de rappeler la technologie si nécessaire.
« Cela revient à la transparence et à l’explicabilité de l’IA », a ajouté Montgomery d’IBM. « Nous devons définir l’utilisation à haut risque, exigeant des choses comme les évaluations d’impact et la transparence, obligeant les entreprises à montrer leur travail et protégeant les données utilisées pour former l’IA en premier lieu. »
Les gouvernements du monde entier continuent de lutter contre la prolifération de l’intelligence artificielle dans le courant dominant. En décembre, l’Union européenne a adopté une loi sur l’IA pour promouvoir des bacs à sable réglementaires établis par les autorités publiques pour tester l’IA avant sa sortie.
« Pour assurer un développement de l’intelligence artificielle centré sur l’humain et éthique en Europe, les députés européens ont approuvé de nouvelles règles de transparence et de gestion des risques pour les systèmes d’IA », a écrit le Parlement européen.
En mars, invoquant des problèmes de confidentialité, l’Italie a interdit ChatGPT d’OpenAI. L’interdiction a été levée en avril après qu’OpenAI ait modifié ses paramètres de confidentialité pour permettre aux utilisateurs de refuser que leurs données soient utilisées pour former le chatbot et de désactiver leur historique de chat.
je pense que nous ne voulons pas ralentir la réglementation pour faire face aux risques réels en ce moment », a poursuivi Montgomery, ajoutant qu’il existe déjà des autorités de régulation capables de réglementer dans leurs domaines respectifs.
Elle a reconnu que ces organismes de réglementation manquent de ressources et n’ont pas les pouvoirs nécessaires.
« L’IA devrait être réglementée au point de risque, essentiellement », a déclaré Montgomery. « Et c’est à ce moment que la technologie rencontre la société. »