Un projet de loi bipartisan sur l’innovation en IA présenté au Sénat américain

    Création de l'Institut américain de sécurité de l'IA
  • Instauration de normes et lignes directrices volontaires pour le développement sécurisé de l’IA
  • Accélération de l’innovation en IA grâce à des partenariats entre gouvernement, entreprises et recherches
  • Renforcement du leadership américain dans la compétition mondiale en matière d’intelligence artificielle grâce à une législation bipartisan

Un projet de loi bipartite visant à soutenir l’innovation américaine dans le domaine de la technologie de l’intelligence artificielle (IA) a été présenté au Sénat la semaine dernière. La « Loi sur l'avenir de l'innovation en IA » propose un certain nombre de mesures, notamment la création de l'AI Safety Institute pour élaborer des lignes directrices et des normes volontaires et obliger les agences scientifiques fédérales à rendre les ensembles de données accessibles au public.

Jeudi dernier, les sénateurs américains Todd Young (R-Ind), Maria Cantwell (D-Wash), Marsha Blackburn (R-Tenn) et John Hickenlooper (D-Col), tous membres du comité du commerce, ont présenté le projet bipartisan ' Future of AI Innovation Act », qui vise à consolider le leadership américain dans le domaine de l'IA et d'autres technologies émergentes grâce à une collaboration renforcée avec le secteur privé.

L'objectif principal de la législation est de renforcer les partenariats entre le gouvernement, les entreprises, la société civile et le monde universitaire « afin de promouvoir une innovation solide à long terme dans le domaine de l'IA ».

Un projet de loi bipartisan sur l’innovation en IA présenté au Sénat américain

Pour y parvenir, le projet de loi propose un certain nombre de mesures, notamment la création de l'Institut américain de sécurité de l'IA, qui serait hébergé au sein du National Institute of Standards and Technology (NIST), et l'autoriser à élaborer des lignes directrices et des normes volontaires en coopération avec le secteur privé. et les agences fédérales.

« Le Future of AI Innovation Act est essentiel pour maintenir le leadership américain dans la course mondiale au progrès de l'IA », a déclaré Young. « Ce projet de loi bipartite créera d'importants partenariats entre le gouvernement, le secteur privé et le monde universitaire pour établir des normes volontaires et des meilleures pratiques qui garantiront un environnement fertile pour l'innovation en IA tout en tenant compte des risques potentiels. »

La législation s'appuie sur la loi originale FUTURE of AI Act de Young et Cantwell, qui a créé le National AI Advisory Committee (NAIAC), un comité d'experts externes qui font des recommandations au gouvernement sur l'IA.

La loi sur l’avenir de l’innovation en IA a été rédigée sur la base des recommandations des rapports de la NAIAC. En plus de créer l’AI Safety Institute, les principales propositions du projet de loi comprennent  :

  • ordonner aux agences scientifiques fédérales de mettre des ensembles de données organisés à la disposition du public, afin d’accélérer les nouveaux progrès dans les applications de l’IA
  • créer des concours de grands défis pour stimuler les solutions et l’innovation en matière d’IA du secteur privé
  • créer des « programmes de banc d'essai » entre le NIST, la National Science Foundation (NSF), le ministère de l'Énergie (DOE) et le secteur privé pour développer des outils de risque de sécurité et des environnements de test permettant aux entreprises d'évaluer leurs systèmes
  • et former une coalition avec les alliés des États-Unis pour coopérer sur des normes mondiales et créer une collaboration de recherche multilatérale entre les institutions scientifiques et universitaires du monde entier

« Le NIST AI Safety Institute, les bancs d'essai dans nos laboratoires nationaux et les grands prix du défi rassembleront des experts du secteur privé et du gouvernement pour élaborer des normes, créer de nouveaux outils d'évaluation et surmonter les obstacles existants », a déclaré Cantwell. « Cela posera une base solide pour l'évolution de l'économie américaine de la technologie de l'IA pour les années à venir. »

Ce sentiment a été repris par Blackburn, qui a ajouté que le projet de loi « exigerait également l’identification des obstacles réglementaires à l’innovation en matière d’IA et renforcerait notre position nationale au sein des organismes de normalisation – en veillant à ce que le gouvernement aide, plutôt qu’entrave, le progrès technologique ».

Veiller à ce que le gouvernement ne fasse pas obstacle à l’innovation est peut-être une allusion aux mesures provisoires déjà prises pour réglementer l’IA aux États-Unis.

Les États-Unis se concentrent davantage sur l’IA

En octobre 2023, le président Joe Biden a signé un décret visant à réglementer le développement de l’IA. Il exigeait que les développeurs de systèmes d'IA rendent compte au gouvernement fédéral de leurs progrès et introduisait de nouvelles normes de test avant leur diffusion publique.

Pour aider à identifier les menaces potentielles, l’ordonnance exigeait également que plusieurs agences gouvernementales soumettent des évaluations des risques concernant l’utilisation de l’IA dans leurs domaines respectifs. Ces évaluations provenaient de neuf agences fédérales, dont les ministères de la Défense, des Transports, du Trésor et de la Santé et des Services sociaux, et devaient être soumises au ministère de la Sécurité intérieure (DHS).

Ces mesures étaient davantage axées sur les problèmes de sécurité autour de l’IA et visaient à régner quelque peu sur les développeurs. Cependant, le décret a également donné naissance au programme pilote National Artificial Intelligence Research Resource (NAIRR), qui est officiellement devenu opérationnel en janvier 2024.

Le projet pilote est un effort concerté visant à démocratiser l’accès aux ressources avancées d’IA et à favoriser l’innovation dans divers secteurs en abaissant les barrières d’entrée dans le secteur des systèmes d’IA avancés.

Le NAIRR visait à connecter les chercheurs et les éducateurs américains aux ressources informatiques, de données et de formation nécessaires pour faire progresser la recherche sur l’IA. L'organisation est dirigée par la NSF en partenariat avec 10 autres agences fédérales et de nombreux partenaires non gouvernementaux, dont Nvidia (NASDAQ : NVDA), Google (NASDAQ : GOOGL) et Microsoft (NASDAQ : MSFT).

Dans le cadre de cet effort, le décret de Biden a également chargé divers ministères et agences fédéraux d'une série d'actions visant à accroître la sûreté, la sécurité et la confidentialité de l'IA tout en catalysant et en démocratisant l'innovation, l'éducation et l'égalité dans l'industrie.

Parmi les exemples d'actions figurent la convocation par le bureau du chef de cabinet de la Maison Blanche d'un groupe de travail sur les talents en IA et en technologie ; le Conseil de la technologie et de la modernisation évalue les moyens de donner la priorité à l'adoption de l'IA par les agences ; et le ministère de la Justice (DOJ) a convoqué les bureaux des droits civiques des agences fédérales pour discuter de l'intersection de l'IA et des droits civiques.

Les différents ministères et agences ont eu 90 jours pour mener à bien les actions prescrites par le décret, et en février, il a été annoncé qu'ils s'étaient tous conformés.

Pour que l’intelligence artificielle (IA) fonctionne dans le respect de la loi et prospère face à des défis croissants, elle doit intégrer un système de blockchain d’entreprise qui garantit la qualité et la propriété des données saisies, lui permettant ainsi de conserver les données en sécurité tout en garantissant leur immuabilité. de données. Consultez la couverture de CoinGeek sur cette technologie émergente pour savoir pourquoi la blockchain d'entreprise sera l'épine dorsale de l'IA.

Regarder  : L’intelligence artificielle a besoin de la blockchain

Nouveau sur la blockchain ? Consultez la section Blockchain pour les débutants de CoinGeek, le guide de ressources ultime pour en savoir plus sur la technologie blockchain.