Réglementation sur l’IA – un tour d’horizon mondial


Conscients des risques associés, les pays du monde entier ont commencé à rédiger et à mettre en œuvre des cadres réglementaires pour garantir que les systèmes d’IA sont sûrs, sécurisés et dignes de confiance. Les principales entreprises technologiques, les gouvernements et les décideurs politiques ont également réclamé un cadre mondial standardisé pour le développement fiable de systèmes d’IA avancés. Cet article traite des différentes réglementations émergentes dans diverses zones géographiques, des défis imminents et de la manière dont elles pourraient façonner le secteur de l'investissement, entre autres.

Notre point de vue sur la réglementation de l’IA

Certains des thèmes communs qui émergent dans les réglementations sur l’IA sont les exigences en matière d’équité, de responsabilité et de transparence dans l’utilisation de l’IA. Les décideurs politiques et autres régulateurs appellent les fournisseurs à proposer une IA responsable pour la protection des droits fondamentaux de l'individu tout en favorisant un environnement sain pour l'innovation. Bien que les États-Unis et le Royaume-Uni aient présenté des projets de réglementation, l'UE est bien en avance dans la finalisation de la réglementation en décembre 2023, qui pourrait entrer en vigueur d'ici 2025. Alors que l'UE a adopté une approche basée sur les risques qui est centralisée, large et prescriptif, le Royaume-Uni a adopté un modèle plus décentralisé en s’appuyant sur les régulateurs existants pour élaborer des réglementations sectorielles spécifiques, le gouvernement britannique souhaitant éviter davantage de confusion en créant un nouveau régulateur intersectoriel. Le Royaume-Uni envisage d’adopter une approche du risque davantage axée sur les résultats plutôt que d’appliquer des risques de défaut aux technologies sous-jacentes.

Les États-Unis ont également adopté une approche décentralisée, plusieurs agences fédérales élaborant leurs propres principes pour leurs secteurs respectifs, par exemple la FTC, le CFPB, etc. La SEC est également susceptible de proposer des principes pour les algorithmes de recommandation financière dans le meilleur intérêt des investisseurs. Alors que les normes européennes sont très larges et strictes, les agences américaines sont à la traîne. L’UE s’est également concentrée sur le commerce électronique, les médias sociaux et les plateformes en ligne offrant une large couverture de secteurs alors que les États-Unis n’ont pas encore légiféré sur ces questions.

Réglementation sur l’IA – un tour d’horizon mondial

La réglementation dans le monde – Un aperçu

Un aperçu rapide de l’état actuel des réglementations à travers le monde montre que la majorité des pays sont encore en train d’élaborer des réglementations ou sont probablement en état de projet, à l’exception de l’Europe et de la Chine. Certains pays, comme le Mexique, n’ont pas encore de projet de réglementation ou envisagent d’en mettre un dans un avenir proche. Nous examinons le résumé des réglementations proposées pour les zones géographiques clés.

NOUS

Les États-Unis ont présenté de nombreuses lignes directrices pour une IA digne de confiance, comme la publication de la Déclaration des droits de l'IA en octobre 2022 et du décret de l'administration américaine sur l'utilisation sûre, sécurisée et digne de confiance de l'intelligence artificielle. L'administration américaine a récemment adopté un décret mettant l'accent sur les initiatives ci-dessous.

  • Développement et recherche en IA : L’ordonnance ordonne aux agences fédérales d’investir dans la recherche et le développement en IA et de rendre leurs recherches en IA plus accessibles au public.
  • Utilisation de l’IA au sein du gouvernement : L’ordonnance fixe des normes pour l’utilisation de l’IA au sein du gouvernement, y compris des exigences en matière de transparence, de responsabilité et d’équité.
  • Développement de la main-d’œuvre en IA  : l’ordonnance ordonne aux agences fédérales de développer et de mettre en œuvre des programmes pour former et perfectionner la main-d’œuvre américaine en IA.
  • Coopération internationale en matière d'IA  : l'ordonnance crée un nouveau bureau national d'initiative en matière d'IA pour coordonner la coopération internationale en matière d'IA.

La commande comprend également un certain nombre d’initiatives spécifiques, telles que :

  • Création d'une Déclaration des droits de l'IA  : L'ordonnance ordonne à l'Institut national des normes et de la technologie d'élaborer une Déclaration des droits de l'IA, qui définira les droits et la protection des individus dans le contexte de l'IA.
  • Création d'un centre d'excellence en cybersécurité de l'IA : L'ordre crée un nouveau centre d'excellence en cybersécurité de l'IA pour développer et promouvoir les meilleures pratiques de sécurisation des systèmes d'IA.
  • Lancement d'un Cloud national de recherche sur l'IA  : L'ordonnance lance un nouveau Cloud national de recherche sur l'IA, qui fournira aux chercheurs un accès à de puissantes ressources informatiques pour développer et tester des algorithmes d'IA.

La Déclaration des droits de l’IA est un ensemble de lignes directrices pour la conception et l’utilisation responsables de l’intelligence artificielle, créées par le Bureau de la politique scientifique et technologique (OSTP) de la Maison Blanche dans le cadre d’une campagne mondiale continue visant à établir davantage de réglementations pour régir l’IA. Officiellement appelé projet de Déclaration des droits de l'IA, le document, publié en octobre 2022, est le résultat d'une collaboration entre l'OSTP, des universitaires, des groupes de défense des droits de l'homme, le grand public et même de grandes entreprises comme Microsoft et Google.

Canada

La Loi sur les données d'intelligence artificielle (AIDA), qui est introduite par le gouvernement canadien parallèlement à la Loi sur la protection de la vie privée des consommateurs (CPPA) dans le cadre du projet de loi C-27, la Loi de mise en œuvre de la Charte numérique de 2022, est la première tentative du Canada de réglementer l'intelligence artificielle. (IA). Les provinces du Québec et de l’Ontario envisagent également d’élaborer des cadres pour bâtir une IA digne de confiance. Ils devraient entrer en vigueur d’ici 2024.

L'Europe 

La loi européenne sur l'intelligence artificielle a été publiée pour la première fois par la Commission européenne en avril 2021 et adoptée par le Conseil de l'Union européenne en décembre 2022. L'UE a approuvé la loi sur l'intelligence artificielle en décembre 2023 et elle entrera probablement en vigueur à partir de 2025. Certains des principaux points à retenir du projet de réglementation sont discutés ci-dessous.

La réglementation actuelle s’applique à tous les systèmes ou applications d’IA utilisés dans l’UE, que l’entreprise opère dans l’UE ou en dehors de l’UE. Le règlement vise à adopter une approche basée sur les risques et classe l’utilisation de l’IA par niveau de risque (risque inacceptable, élevé, limité et minime ou nul) et impose des exigences en matière d’audit, de documentation et de processus aux développeurs et aux déployeurs de systèmes d’IA. Les entreprises développant ou déployant des systèmes d’IA devront donc documenter et examiner les cas d’utilisation pour identifier la classification de risque appropriée.

  • La loi sur l'IA interdit les systèmes à « risque inacceptable », y compris les systèmes de biométrie et de reconnaissance faciale, dans les lieux publics soumis à leur utilisation. Les systèmes sont considérés comme à haut risque s'ils présentent un « risque important » pour la santé, la sécurité ou les droits fondamentaux d'un individu.
  • Les systèmes d’IA à haut risque seraient soumis à des évaluations de conformité avant déploiement, à la disponibilité de documents de conformité appropriés, à la traçabilité des résultats, à la transparence, à la surveillance humaine, à l’exactitude et à la sécurité.
  • Des obligations de transparence plus strictes sont proposées pour l’IA générative, une sous-catégorie de modèles de base, exigeant que les fournisseurs de tels systèmes informent les utilisateurs lorsque le contenu est généré par l’IA.
  • La proposition du Parlement augmente les sanctions potentielles en cas de violation de la loi sur l'IA. La violation d'une pratique interdite serait passible de sanctions pouvant aller jusqu'à 40 millions d'euros, ou 7 % du chiffre d'affaires mondial annuel d'une entreprise, le montant le plus élevé étant retenu, contre 30 millions d'euros, ou 6 % du chiffre d'affaires annuel mondial.

ROYAUME-UNI

Le gouvernement britannique a lancé son livre blanc en mars 2023, qui définit cinq principes directeurs pour l'IA  : sécurité, transparence, équité, responsabilité et contestabilité. L’approche est basée sur un modèle agile et favorable à l’innovation qui exploite les capacités et les compétences des régulateurs existants, par opposition à un nouveau régulateur intersectoriel spécifique à l’IA.

Chine

Les trois principales réglementations chinoises en matière d'IA sont : la réglementation de 2021 sur les algorithmes de recommandation, les règles de 2022 pour la synthèse profonde (contenu généré synthétiquement) et le projet de règles de 2023 sur l'IA générative. Ces réglementations ciblent les algorithmes de recommandation pour la diffusion de contenu, les images et vidéos générées de manière synthétique, ainsi que les systèmes d'IA générative comme ChatGPT d'OpenAI. Les règles créent de nouvelles exigences sur la manière dont les algorithmes sont construits et déployés, ainsi que sur les informations que les développeurs d'IA doivent divulguer au gouvernement et au public. Le projet de règlement sur l’IA générative oblige les fournisseurs à soumettre un dossier au registre d’algorithmes existant. Il comprenait également plusieurs nouvelles exigences concernant les données de formation et le contenu généré qui peuvent s'avérer extrêmement difficiles à satisfaire pour les fournisseurs.

Défis de mise en œuvre

L’ensemble de règles contradictoires entre les zones géographiques pose un énorme défi aux fournisseurs mondiaux d’IA qui doivent adopter les réglementations de leurs juridictions respectives, alors qu’elles pourraient être déployées dans diverses autres zones géographiques. En outre, la mise en œuvre des lignes directrices sur l’IA n’est pas aussi rapide que l’émergence de divers modèles d’IA qui pourraient rendre la législation obsolète. À l’exception de l’UE, le défi de faire appliquer de tels cadres demeure, car la plupart des autres pays ont rendu leur adoption volontaire.

Il n'existe pas de consensus mondial clair sur la définition des systèmes d'IA à l'échelle mondiale, par exemple, la loi de l'UE sur l'IA exige que les fournisseurs divulguent tout matériel protégé par le droit d'auteur utilisé pour développer les solutions et le titulaire peut refuser les données protégées par le droit d'auteur des ensembles de données de formation. faisant de l’UE un choix moins souhaitable pour les fournisseurs d’IA. Les autres zones géographiques n'ont pas de réglementation spécifique concernant l'utilisation de matériel protégé par le droit d'auteur comme ensembles de données de formation et il appartient aux fournisseurs individuels d'être prudents à l'égard du matériel protégé par le droit d'auteur.

Compte tenu de l’impact interdisciplinaire des réglementations, il est nécessaire de parvenir à un consensus dans divers domaines tels que le droit, l’éthique, l’informatique, la finance et d’autres experts pour convenir de dispositions et d’un cadre communs.

Les réglementations conçues pour répondre à des risques spécifiques liés à l’IA peuvent avoir d’autres conséquences directes, qui pourraient entraver les innovations, la recherche ou les produits bénéfiques potentiels en matière d’IA. Trouver un équilibre entre la promotion de l’innovation et la protection contre les risques est très difficile pour les gouvernements, car cela pourrait également restreindre les startups et le financement de l’IA.

Prochaines étapes

La loi européenne sur l’IA a déjà été approuvée par le Parlement et est susceptible de devenir la norme mondiale en matière de réglementation de l’IA d’ici 2025, tandis que les États-Unis et le Royaume-Uni disposent d’un ensemble volontaire de lignes directrices et d’un cadre sans vision centralisée entre les secteurs et sont à la traîne de l’UE en matière de réglementation. modalités de dates d’exécution. Chacune des réglementations (États-Unis, UE et Chine) reflète sa propre structure sociétale et ses priorités nationales. En conséquence, cela créerait un environnement réglementaire plus complexe permettant aux entreprises d’opérer entre elles dans plusieurs zones géographiques. La transparence, l'explicabilité et la catégorisation des risques (au niveau de l'organisation, des cas d'utilisation et des modèles/données) sont essentielles pour se conformer aux cadres réglementaires émergents.

Dans le domaine des services financiers, certaines des technologies courantes d'IA/ML sont utilisées dans la recherche en investissement, les conseillers en robotique, les évaluations de risques, les contrôles AML, etc. Ces services facilités par l'IA et l'apprentissage automatique permettent aux institutions financières d'offrir des produits personnalisés et diversifiés à leurs clients. de manière rentable. L’adoption croissante de l’IA générative s’accompagne également d’une préoccupation croissante concernant les risques financiers. Bien que l'UE ait mis en place des mesures et des sanctions strictes pour protéger les investissements, la SEC et la FCA adoptent une approche prudente dans l'élaboration de ces lignes directrices.

La préparation des entreprises à adopter la réglementation malgré les défis est une étape cruciale vers une conformité mondiale. La préparation des entreprises à se conformer à la réglementation devrait commencer par un catalogue consolidé d'actifs d'IA répertoriant les différentes réglementations inter-géographiques, les utilisateurs et les produits concernés, la catégorisation des risques des différentes applications d'IA utilisées en interne, etc. Il est impératif que les entreprises construisent un plan d'IA bien défini. workbench comprenant un cadre holistique avec divers composants intégrés tels que la gestion des données, l'innovation, la gouvernance, le respect des politiques, etc. démontrant ainsi la fiabilité des systèmes d'IA impliqués.

Il reste à voir s’il y aura une collaboration à l’échelle de l’industrie entre les différents décideurs politiques, les grandes entreprises technologiques et les autres parties prenantes pour rédiger une réglementation mondiale standardisée sur l’IA. Les dirigeants du G7 ont également appelé à des discussions sur l’IA générative, dans le but d’établir des normes et réglementations mondiales pour une utilisation responsable de la technologie.