Un an après, les perspectives de l'IA générative dans FS

  • L'adoption de l'IA générative, comme ChatGPT, a suscité enthousiasme et optimisme dans divers secteurs.
  • Les industries financières ont traditionnellement été réticentes à adopter pleinement l'IA en raison des risques potentiels de biais et d'incompréhension des décisions prises par les algorithmes.
  • Cependant, l'évolution vers des modèles GPT plus puissants pourrait changer la donne en matière de lutte contre la fraude financière et le blanchiment d'argent, avec des avantages qui dépassent largement les risques.

Il y a un peu plus d’un an, ChatGPT était lancé. L’enthousiasme, l’anxiété et l’optimisme associés à la nouvelle IA ne montrent aucun signe de ralentissement. En novembre, Sam Altman, PDG d’OpenAI, a été démis de ses fonctions, pour revenir quelques jours plus tard. Rishi Sunak a accueilli les dirigeants mondiaux au sommet sur la sécurité de l’IA au Royaume-Uni, interviewant Elon Musk devant un rassemblement de dirigeants mondiaux et d’entrepreneurs technologiques. Dans les coulisses, les chercheurs en IA seraient sur le point de réaliser encore davantage de percées.

Qu’est-ce que tout cela signifie pour les industries qui souhaitent bénéficier de l’IA mais qui ne sont pas sûres des risques ?

existe depuis un siècle. Depuis le début des années 1990, ces outils constituent un élément opérationnel clé de certains processus bancaires, gouvernementaux et d’entreprise, tout en étant remarquablement absents dans d’autres.

Un an après, les perspectives de l'IA générative dans FS

Alors pourquoi cette adoption inégale ? En général, c’est une question de risque. Les outils d’IA sont parfaits pour des tâches telles que la détection des fraudes, où des algorithmes bien établis et testés peuvent faire des choses que les analystes ne peuvent tout simplement pas faire en examinant de vastes pans de données en quelques millisecondes. C’est devenu la norme, notamment parce qu’il n’est pas indispensable de comprendre en détail chaque décision.

D’autres processus ont été plus résistants au changement. Habituellement, ce n’est pas parce qu’un algorithme ne pourrait pas faire mieux, mais plutôt parce que – dans des domaines tels que l’évaluation du crédit ou la détection du blanchiment d’argent – ​​le risque d’apparition de biais inattendus est inacceptable. Cela est particulièrement grave en matière de notation de crédit lorsqu’un prêt ou une hypothèque peut être refusé en raison de caractéristiques non financières, notamment de préjugés raciaux.

Ce qui est clair, c’est qu’aucune organisation ne veut passer à côté des avantages. Malgré les discussions sur les risques liés aux modèles Generative et Frontier, 2023 a été pleine d’enthousiasme quant à la révolution à venir.

Deux objectifs

L’un des principaux cas d’utilisation de l’IA dans le domaine de la criminalité financière est la détection et la prévention des activités frauduleuses et criminelles. Les efforts sont généralement concentrés autour de deux objectifs similaires mais différents. Il s’agit 1) de contrecarrer les activités frauduleuses – en empêchant vous, votre ami ou votre parent, d’être victime d’une fraude – et 2) d’adhérer aux directives réglementaires existantes pour soutenir la lutte contre le blanchiment d’argent (AML) et la lutte contre le financement du terrorisme (CFT).

Historiquement, les déploiements d’IA dans les domaines AML et CFT ont été confrontés à des craintes de risquer de négliger des activités critiques par rapport aux méthodes traditionnelles basées sur des règles. Cela a changé au cours des 5 à 10 dernières années, les régulateurs ayant amorcé un changement en encourageant l’innovation pour aider dans les affaires de LBC et de CFT – déclarant que les innovateurs seront jugés sur leurs résultats globaux et non sur quelques alertes manquées.

Cependant, malgré l’utilisation de modèles d’apprentissage automatique dans la prévention de la fraude au cours des dernières décennies, leur adoption en matière de LBC/FT a été beaucoup plus lente, avec une prédominance des gros titres et des prédications sur l’action réelle. L’avènement de l’IA générative semble susceptible de changer radicalement cette équation.

L’un des points forts de la conformité de l’IA au cours des 5 dernières années a été le contrôle des clients et des contreparties, en particulier lorsqu’il s’agit des grandes quantités de données impliquées dans le contrôle de haute qualité des médias indésirables (alias « nouvelles négatives) » où les organisations recherchent les premiers signes de risque dans les médias pour se protéger des problèmes potentiels.

La nature du contrôle de gros volumes de milliards de documents non structurés signifie que les avantages de l’apprentissage automatique et de l’intelligence artificielle dépassent de loin les risques et permettent aux organisations d’effectuer des contrôles qui ne seraient tout simplement pas possibles autrement.

Aujourd’hui, les banques et d’autres organisations souhaitent aller plus loin. Alors que les modèles de génération IA commencent à se rapprocher de l’AGI (Artificial General Intelligence), où ils peuvent régulièrement surpasser les analystes humains, la question est de savoir quand, et non si, ils peuvent utiliser la technologie pour mieux prendre en charge les décisions et potentiellement même prendre des décisions unilatérales.

Sécurité de l’IA en conformité

L’AI Safety Summit 2023 a constitué une étape importante dans la reconnaissance de l’importance de l’IA. Le sommet a abouti à la signature par 28 pays d’une déclaration visant à poursuivre les réunions pour lutter contre les risques liés à l’IA. L’événement a conduit à l’inauguration de l’AI Safety Institute, qui contribuera aux futures recherches et collaborations pour assurer sa sécurité.

Bien qu’il y ait des avantages à se concentrer sur l’IA à l’échelle internationale, les modèles de transformateurs GPT ont été les principaux domaines d’intérêt du sommet. Cela présente le risque de simplifier à l’excès ou de confondre le spectre plus large de l’IA pour les personnes non habituées.

L’IA n’est pas seulement générative et différentes technologies offrent une vaste gamme de caractéristiques différentes. Par exemple, même si le fonctionnement de l’IA générative est presque entièrement opaque ou « boîte noire », une grande partie de l’IA traditionnelle peut présenter les raisons de ses décisions.

les régulateurs et autres doivent en comprendre la complexité. Les banques, les agences gouvernementales et les entreprises mondiales doivent adopter une approche réfléchie en matière d’utilisation de l’IA. Ils doivent mettre l’accent sur son utilisation appropriée, sûre, prudente et explicable lorsqu’elle est utilisée à l’intérieur et à l’extérieur des cadres de conformité.

Le chemin à parcourir

Le paysage de la conformité exige une révision des normes pour une utilisation responsable de l’IA. Il est essentiel d’établir des bonnes pratiques et des objectifs clairs pour aider les organisations à s’éloigner des solutions d’IA assemblées à la hâte qui compromettent la précision. La précision, la fiabilité et l’innovation sont tout aussi importantes pour atténuer la fabrication ou la désinformation potentielle.

Dans le secteur bancaire, l’IA est utilisée pour soutenir les analystes de conformité qui sont déjà aux prises avec des contraintes de temps et des responsabilités réglementaires croissantes. L’IA peut aider considérablement les équipes en automatisant les tâches banales, en augmentant les processus de prise de décision et en améliorant la détection des fraudes.

Le Royaume-Uni peut et doit bénéficier des dernières opportunités. Nous devons cultiver un écosystème d’innovation réceptif à l’innovation en matière d’IA dans les domaines de la fintech, de la regtech et au-delà. La clarté de la part du gouvernement et des leaders d’opinion sur l’IA adaptée aux mises en œuvre pratiques dans l’industrie est essentielle. Nous devons également être ouverts à l’accueil de nouveaux diplômés issus du vivier mondial croissant de talents dans le domaine de l’IA afin de renforcer la position du pays en tant que pionnier des solutions basées sur l’IA et de les intégrer de manière transparente. Dans un contexte d’évolution du secteur, il est essentiel de donner la priorité et de soutenir le déploiement responsable de l’IA pour lutter avec succès contre tous les aspects de la criminalité financière.