La loi européenne sur l’IA : quelles sont les implications pour le secteur bancaire et la Fintech ?
- La loi européenne sur l’IA sera la plus complète au monde et aura des implications mondiales.
- Elle met en place des principes éthiques pour garantir une IA digne de confiance.
- Les systèmes d’IA à haut risque, notamment dans la banque, seront soumis à des obligations strictes.
- Les entreprises doivent se préparer en établissant une gouvernance de l’IA et en assurant la conformité continue.
Le vote final du Parlement européen hier sur la loi sur l'IA, qui devrait entrer en vigueur en mai prochain, annonce la législation sur l'IA la plus complète au monde. Tout comme le RGPD, il aura des implications mondiales au-delà de l’UE.
La loi sur l'IA fournit un cadre complet pour garantir le développement d'une IA digne de confiance et l'utilisation responsable des outils d'IA, en particulier la transparence, les préjugés, les violations de la vie privée, les risques de sécurité et le potentiel de diffusion de fausses informations, ainsi que la surveillance humaine dans le développement des technologies d'IA..
Dans ces lignes directrices, sept principes éthiques non contraignants pour l’IA sont utilisés, destinés à garantir que l’IA est digne de confiance et éthiquement solide. Les principes comprennent
Avec une approche échelonnée basée sur les risques, les systèmes d’IA à haut risque dans des secteurs comme la banque et la santé seront confrontés à des obligations juridiques strictes et à des sanctions importantes en cas de non-conformité. La loi classe l’IA en quatre niveaux de risque, de minime à inacceptable, chacun comportant des obligations croissantes.
La loi de l’UE sur l’IA interdit le développement, le déploiement et l’utilisation de certains systèmes d’IA, notamment :
Tous les systèmes d’IA ne présentent pas de risques importants, surtout s’ils n’influencent pas sensiblement la prise de décision ou ne portent pas gravement atteinte aux intérêts juridiques protégés. Les systèmes d’IA ayant un impact minimal sur la prise de décision ou un risque minimal pour les intérêts juridiques, tels que ceux effectuant des tâches spécifiques ou améliorant les activités humaines, sont considérés comme à faible risque. La documentation et l'enregistrement de ces systèmes sont soulignés par souci de transparence. Certains des systèmes d’IA à haut risque incluent plusieurs secteurs, notamment la banque et l’assurance (ainsi que les dispositifs médicaux, les ressources humaines, l’éducation, etc.).
Les exigences obligatoires pour les systèmes d’IA à haut risque visent à garantir la fiabilité et à atténuer les risques, compte tenu de leur objectif et de leur contexte d’utilisation. Il est important pour les entreprises de services financiers et de technologie financière, en particulier celles qui traitent des données clients, de garder à l’esprit les exigences ci-dessous pour les systèmes d’IA à haut risque :
Les entreprises doivent donner la priorité au développement d’une IA responsable pour se conformer aux réglementations récentes et éviter de lourdes sanctions en cas de non-conformité. Voici quelques-unes des étapes par lesquelles une entreprise devrait commencer pour garantir la conformité :
l’alignement sur les normes éthiques et les exigences réglementaires n’est pas seulement une question de conformité juridique mais aussi un impératif stratégique. En se concentrant sur l’IA responsable, les entreprises se protègent non seulement contre des amendes importantes, mais se positionnent également comme des entités dignes de confiance et avant-gardistes dans un paysage numérique en évolution rapide. Le voyage vers une IA responsable est un chemin difficile mais indispensable qui promet de redéfinir l’avenir de la technologie, de la gouvernance et du bien-être sociétal.