L'approche du Royaume-Uni sur l'IA en finance pourrait porter préjudice aux consommateurs et aux systèmes
Chapô : Un rapport du Treasury Select Committee britannique alerte sur les dangers de l’intelligence artificielle (IA) dans le secteur financier. Selon cette étude, l'approche actuelle des régulateurs pourrait entraîner un « préjudice grave » pour les consommateurs et la stabilité économique. Face à une adoption massive de l'IA par les entreprises, des recommandations sont faites pour renforcer la surveillance et la résilience du système.
Le rapport met en lumière les risques liés à l'IA dans la finance
Le 20 janvier, le Treasury Select Committee a publié son rapport intitulé « L’intelligence artificielle dans les services financiers ». Ce document souligne que l'approche attentiste adoptée par les institutions financières britanniques compromet la sécurité des consommateurs et la stabilité économique. En effet, selon le Comité, ces institutions ne font pas assez pour gérer les risques liés à l’utilisation accrue de l’IA.
Ce comité parlementaire est responsable d’examiner les dépenses et politiques relatives au Trésor britannique, incluant des organismes comme la Banque d’Angleterre (BoE) et la Financial Conduct Authority (FCA).
Une adoption rapide de l'IA sans régulation adéquate
Actuellement, plus de 75 % des sociétés de services financiers au Royaume-Uni utilisent désormais l'IA. Cette adoption est particulièrement marquée chez les assureurs et banques internationales. Bien que certains députés reconnaissent que ces développements technologiques peuvent apporter d'importants avantages aux consommateurs, ils s'inquiètent d'une supervision insuffisante face aux défis posés par cette technologie en plein essor.
Dame Meg Hillier, présidente du Comité spécial du Trésor, a déclaré : « L’utilisation de l’IA dans la City s’est rapidement généralisée... je ne suis pas convaincue que notre système financier soit préparé en cas d’incident majeur lié à l’IA ».
Des recommandations pour renforcer la réglementation autour de l'IA
Pour faire face aux risques identifiés, le rapport recommande que la BoE et la FCA réalisent des « tests de résistance spécifiques à l'IA ». Ces tests visent à préparer davantage les entreprises aux chocs potentiels provoqués par une utilisation imprudente ou excessive de cette technologie.
De plus, il est suggéré que la FCA publie avant fin 2023 des conseils pratiques concernant l'utilisation responsable de l'IA par les entreprises. Cela inclut notamment comment appliquer efficacement les règles visant à protéger les consommateurs ainsi qu’une clarification quant aux responsabilités internes liées aux dommages causés par cette technologie.
Dame Meg Hillier a également ajouté : « Je souhaite voir nos institutions financières publiques adopter une approche plus proactive pour nous protéger contre ce risque ».
La nécessité urgente d'un régime adapté pour surveiller le secteur
Un autre point crucial souligné concerne le « régime des tiers critiques », introduit en 2023, qui confère à la FCA et à BoE un pouvoir accru sur certaines entreprises non financières fournissant des services essentiels au secteur financier. Malgré sa mise en place depuis plus d'un an, aucune organisation n'a encore été désignée sous ce régime critique.
Le Comité exhorte donc le gouvernement britannique à identifier ces fournisseurs jugés essentiels avant fin 2026 afin d'améliorer leur surveillance.
En conclusion du rapport, il est rappelé que bien que « l’IA… puisse apporter des avantages considérables », ni la FCA ni BoE n’agissent suffisamment face aux menaces qu’elle représente actuellement.
Pour assurer un avenir sûr pour ce domaine technologique croissant tout en respectant législation applicable, il devient indispensable d’intégrer un système robuste tel qu’un blockchain privé capable de garantir qualité et propriété des données utilisées par ces systèmes basés sur IA.
