De grands noms rejoignent Biden au sein du groupe AI Safety, notamment OpenAI, Microsoft, Google, Apple et Amazon

  • L'administration Biden a lancé le US AI Safety Institute Consortium (AISIC) pour développer et déployer une intelligence artificielle sûre et fiable.
  • Plus de 200 représentants de grandes entreprises telles que Amazon, Google, Apple, Microsoft, OpenAI et NVIDIA font partie du consortium.
  • Le consortium vise à établir des normes de sécurité et à protéger l'écosystème d'innovation de l'Amérique.

Quatre mois après avoir publié un décret exigeant que l’intelligence artificielle soit construite et utilisée en toute sécurité, l’administration Biden a annoncé aujourd’hui le lancement du US AI Safety Institute Consortium (AISIC). Le nouveau consortium compte plus de 200 représentants, dont Amazon, Google, Apple, Anthropic, Microsoft, OpenAI et NVIDIA.

Le consortium rassemble des développeurs d’IA, des universitaires, des chercheurs gouvernementaux et industriels, des organisations de la société civile et des utilisateurs unis pour « le développement et le déploiement d’une intelligence artificielle sûre et fiable ».

utiliser tous les leviers pour atteindre deux objectifs clés : établir des normes de sécurité et protéger notre écosystème d'″

De grands noms rejoignent Biden au sein du groupe AI Safety, notamment OpenAI, Microsoft, Google, Apple et Amazon

Elle a expliqué que le consortium résulte du décret signé par le président américain Biden en octobre. Cette commande comprenait l’élaboration de lignes directrices pour l’évaluation des modèles d’IA, la gestion des risques, la sûreté et la sécurité et l’application de filigranes au contenu généré par l’IA.

avantage concurrentiel de l'Amérique et développer l'IA de manière responsable.

Le consortium accueille des représentants des secteurs de la santé, du monde universitaire, des syndicats et du secteur bancaire, notamment JP Morgan, Citigroup, Carnegie Mellon University, Bank of America, Ohio State University et Georgia Tech Research Institute, ainsi que des gouvernements étatiques et locaux. représentants.

Les partenaires internationaux devraient également collaborer.

« Le consortium représente le plus grand ensemble d'équipes de test et d'évaluation créées à ce jour et se concentrera sur l'établissement des bases d'une nouvelle science de mesure dans le domaine de la sécurité de l'IA », a déclaré le ministère du Commerce. « Le consortium (.) travaillera avec des organisations de pays partageant les mêmes idées et qui ont un rôle clé à jouer dans le développement d'outils interopérables et efficaces pour la sécurité dans le monde entier. »

La liste des entreprises participantes est si longue qu'il peut être plus utile de noter celles qui n'ont pas adhéré. Parmi les dix plus grandes entreprises technologiques non représentées figurent Tesla, Oracle et Broadcom. TSMC n'est pas non plus cotée, mais n'est pas non plus une société basée aux États-Unis.

La diffusion rapide des outils d’IA générative dans le grand public a conduit à d’innombrables cas d’utilisation abusive et à une vague de deepfakes en ligne générés par l’IA. Les dirigeants du monde entier, notamment le président Biden et l’ancien président Donald Trump, ont été la cible d’un grand nombre de ces fausses images. Jeudi, la Commission fédérale des communications des États-Unis a annoncé que les appels automatisés générés par l'IA et utilisant de fausses voix étaient illégaux aux États-Unis.

« L'augmentation de ce type d'appels s'est intensifiée au cours des dernières années, car cette technologie a désormais le potentiel de confondre les consommateurs avec de la désinformation en imitant les voix de célébrités, de candidats politiques et de membres de la famille proche », a déclaré la FCC.

Depuis le lancement de GPT-4 au début de l’année dernière, les dirigeants mondiaux se demandent comment régner sur le développement de l’IA. En mai dernier, l’administration Biden a rencontré plusieurs entreprises d’IA et de technologie, dont beaucoup font désormais partie du consortium. OpenAI, Google, Microsoft, Nvidia, Anthropic, Hugging Face, IBM, Stability AI, Amazon, Meta et Inflection ont tous signé un engagement à développer l'IA de manière responsable.

IA à lui seul »autres grandes sociétés d' »