Le groupe américain de normalisation et de technologie exhorte le public à contribuer aux lignes directrices en matière de sécurité et de développement de l'IA


L’Institut national américain des normes et de la technologie (NIST) a, dans un communiqué du mardi 19 décembre, exhorté le public et les entreprises d’IA à contribuer au décret sur le développement de l’intelligence artificielle (IA). Le groupe fédéral de technologie et de normes cible la participation et l’information du public concernant la gestion des risques dans l’IA générative et la lutte contre la désinformation générée par l’IA.

Le groupe du Département américain du Commerce a publié cette demande via son blog officiel afin d’obtenir des informations publiques pour soutenir ses tâches décrites dans le décret présidentiel récemment publié. La commande vise à réaliser un développement d’IA sécurisé et responsable.

Le NIST fixe la date limite de février pour la contribution du public

Les commentaires recueillis visent à faciliter l’exécution de tests pour garantir la sécurité des systèmes d’IA.

Le groupe américain de normalisation et de technologie exhorte le public à contribuer aux lignes directrices en matière de sécurité et de développement de l'IA

La secrétaire américaine au Commerce, Gina Raimondo, a indiqué que l’invitation adressée au public par le NIST s’inspire du décret émis par le président Joe Biden. En particulier, l’ordonnance d’octobre a ordonné au NIST de donner la priorité à la création de lignes directrices qui favorisent les normes fondées sur le consensus, le red-teaming et l’évaluation.

En plus de créer le contexte de test pour les systèmes d’IA, le cadre du NIST vise à soutenir les efforts de la communauté de l’IA vers un développement d’IA fiable, responsable et sûr. Sa réalisation nécessite la demande du NIST exhortant les développeurs d’IA et le public à contribuer à la gestion des risques et à réduire la vulnérabilité à la désinformation générée par l’IA.

Il recherche des retours sur le placement professionnel, dépassant les capacités humaines et les perturbations électorales aux conséquences potentiellement catastrophiques.

Demande du NIST visant à envisager une équipe rouge viable en matière de risques et de meilleures pratiques en matière d’IA

Un examen détaillé de la demande du NIST révèle qu’elle cherche à déterminer les domaines viables d’équipe rouge pour évaluer les risques liés à l’IA et formuler les meilleures pratiques. Le red-teaming implique une pratique élaborée lors des simulations de la guerre froide en tant que technique dans laquelle le groupe réuni simule des scénarios contradictoires probables pour vérifier les vulnérabilités et les faiblesses du processus et du système. Son utilisation en cybersécurité s’est avérée viable pour découvrir de nouveaux risques.

du monde universitaire et de l’industrie.

Le secrétaire au Commerce a salué cette approche comme une voie assurée vers le développement de normes orientées vers la confiance, la sécurité et la sûreté de l’IA. Une telle poursuite propulserait les États-Unis en pole position fondée sur le développement et l’utilisation responsables d’une technologie en évolution rapide.

La directrice du NIST, Laurie Locascio, a salué la voie à suivre pour réduire le risque lié au contenu synthétique et faire progresser les normes techniques mondiales responsables vers le développement de l’IA. Il a ajouté que le NIST vise un engagement plus solide avec la communauté de l’IA afin de parvenir à une meilleure compréhension de l’évaluation de l’IA par rapport aux objectifs définis dans le décret d’octobre.

Le directeur du NIST a clarifié l’invitation adressée à la communauté plus large de l’IA comme ciblant l’engagement avec une équipe talentueuse et engagée. Locascio s’est dit optimiste quant au fait que la demande de contribution des parties prenantes fera progresser les pratiques de sécurité et de confiance en matière d’IA.

Le NIST envisage une approche centrée sur l’humain pour garantir la sécurité et la gouvernance de l’IA

Locascio a encouragé la participation active de la communauté pour aider à rassembler diverses perspectives en vue d’établir une compréhension scientifique impartiale de l’IA. Conscient de l’impact potentiel de l’IA sur l’humanité, le NIST a réitéré son engagement à élaborer des orientations via un processus transparent et ouvert faisant appel à la contribution des parties prenantes de l’industrie, de la société civile, du gouvernement et du monde universitaire.

L’invitation du NIST à la contribution du public s’aligne sur l’événement inaugural d’évaluation publique et de red-teaming qui s’est tenu en août. L’événement s’est produit lors de la conférence sur la cybersécurité grâce à la coordination de SeedAI, AI Village et Humane Intelligence.

La demande d’informations transmise mardi s’appuie sur l’annonce de novembre par le NIST de la création d’un nouveau consortium d’IA. L’annonce comprenait un avis officiel exhortant les candidats possédant les informations d’identification pertinentes à rejoindre le consortium.

Le consortium envisage la création et la mise en œuvre de politiques et d’évaluations spécifiques à l’IA pour garantir que les législateurs américains adoptent une approche centrée sur l’humain pour garantir la sécurité et la gouvernance de l’IA.

com si vous avez des questions articles sponsorisés et contenu des communiqués de presse) et les opinions exprimées dans ces types de publications ne reflètent pas les vues de ce site Web