Le régulateur allemand BaFin appelle à une utilisation responsable de l’IA et à une réglementation qui évite toute bureaucratie inutile

  • Le régulateur BaFin appelle à une utilisation responsable de l'IA et à une réglementation minimaliste pour favoriser le développement des marchés de capitaux.
  • La loi européenne sur l'IA, qui entrera en vigueur en 2025, établira un cadre pour une utilisation fiable de l'IA dans tous les secteurs.
  • Les entreprises doivent gérer correctement leurs risques liés à la cybersécurité et à l'utilisation des données et de l'IA dans un environnement de plus en plus numérisé.

Le Dr Thorsten Pötzsch, directeur exécutif de la surveillance des valeurs mobilières et de la gestion d'actifs à la BaFin, l'autorité intégrée de régulation financière allemande, a appelé à « des règles rapides, claires et un minimum de bureaucratie » dans la législation, citant la réglementation historique MiCA de l'UE comme un excellent exemple de une législation bien conçue qui gagnerait à être moins complète.

«Si l'Europe veut exploiter le potentiel des marchés des capitaux, elle ne doit pas s'opposer à elle-même. La réglementation ne doit pas être conçue pour réglementer chaque petit détail. Il doit résoudre les grands problèmes », a déclaré Pötzsch dans un discours prononcé lors de la conférence sur les opérations du fonds BVI.

Cependant, Pötzsch a noté que MiCA était également accompagnée de 57 lignes directrices et règles juridiques supplémentaires sur divers sujets et détails spécifiques.

Le régulateur allemand BaFin appelle à une utilisation responsable de l’IA et à une réglementation qui évite toute bureaucratie inutile

Ne pourrait-il pas vraiment être plus simple, plus pragmatique ? demanda Pötzsch.

Il a insisté sur le fait que l’Europe doit être un endroit attrayant et sûr pour les acteurs du marché des capitaux, affirmant : « Nous devons réduire la complexité ». Pötzsch a suggéré que le but ultime de la réglementation devrait être de « faire progresser les marchés de capitaux européens ».

Il tient néanmoins à confier aux entreprises la responsabilité de veiller également au bon fonctionnement des marchés de capitaux européens dans un environnement de plus en plus numérisé, soulignant la nécessité de maîtriser les cyber-risques.

« En raison de la numérisation croissante, la surface d’attaque des cyberattaques augmente. La menace posée par de puissants criminels en col blanc augmente. Et les tensions géopolitiques augmentent le risque d’attaques à motivation politique», a averti Pötzsch. « Les cyberattaques sont dangereuses pour les entreprises. Mais ils sont aussi extrêmement dangereux pour le système financier dans son ensemble et pour la stabilité financière.»

Protections DORA

En ce qui concerne les risques spécifiques en matière de cybersécurité, Pötzsch a souligné l'externalisation des services informatiques comme un domaine dans lequel les entreprises doivent être vigilantes.

« De plus en plus d’entreprises du secteur financier externalisent leurs services informatiques. Cela est également logique sur le plan économique, car les coûts diminuent et, idéalement, la qualité augmente, mais cela comporte des risques », a déclaré Pötzsch.

« Dans certains domaines, quelques prestataires de services informatiques sont au service de nombreuses entreprises du secteur financier. Si des perturbations surviennent chez ces prestataires de services multi-mandats, dans le pire des cas, c'est l'ensemble du secteur financier qui sera confronté à un problème. C'est pourquoi une gestion ciblée des risques est extrêmement importante.

L’UE n’a pas fait preuve de complaisance sur cette question. Pötzsch a souligné le Digital Operational Resilience Act, ou DORA, qui a été introduit dans le cadre du même paquet que MiCA et devrait permettre aux régulateurs de mieux gérer ces risques de cybersécurité, notamment grâce à un cadre de surveillance européen pour les fournisseurs de services TIC tiers.

Publié pour la première fois en septembre 2020 dans le cadre du Digital Finance Package (DFP) de l'UE, DORA vise à améliorer la « résilience numérique » du système financier, en particulier les vulnérabilités en matière de cybersécurité, les lacunes en matière de reporting et de tests, et le manque de surveillance des tiers. fournisseurs.

Il introduit un ensemble commun de normes pour gérer les risques numériques dans l’ensemble du secteur financier et garantit que les mesures nécessaires sont en place pour se protéger contre les cyberattaques et autres sources de perturbations.

La loi est entrée en vigueur le 16 janvier 2023 et s'appliquera à compter du 17 janvier 2025. La majorité des institutions financières de l'UE, ainsi que leurs chaînes d'approvisionnement, relèveront alors de sa compétence. Cela inclut les sociétés d'actifs numériques, telles que les fournisseurs de portefeuilles, qui seront réglementées par MiCA.

Un autre sujet de préoccupation en matière de cybersécurité pour Pötzsch était le traitement correct des données, notamment en ce qui concerne l'intelligence artificielle (IA).

La loi européenne sur l’IA

les décisions ne sont compréhensibles que dans une mesure limitée, ce qui n’est pas acceptable. Nous attendons des entreprises qu’elles utilisent les nouvelles technologies de manière responsable et qu’elles assurent une gouvernance prudente », a déclaré Pötzsch.

Il a noté qu'en sa qualité de superviseur des marchés de capitaux, il voit trois domaines de préoccupation spécifiques liés à la technologie brûlante : l'IA est utilisée à mauvais escient comme un outil encore plus efficace pour les cyberattaques ; les criminels utilisant l’IA pour profiter de la manipulation du marché ; et les problèmes de protection des investisseurs liés aux possibilités qu’ouvre l’IA générative en matière de désinformation.

Pour atténuer ces risques, Pötzsch a donné quelques conseils au public rassemblé  :

« Vous devez vérifier régulièrement la puissance de vos outils d’IA. Les gens doivent continuer à contrôler et à intervenir dans les processus décisionnels. L’importance du jugement humain ne doit pas être compromise par une dépendance excessive à l’IA. Les entreprises doivent éviter toute discrimination cachée, mauvaise application, manque de traçabilité ou violation du droit d’auteur.

En plus de ces conseils, il a souligné la loi européenne sur l'IA récemment adoptée, qui introduit un cadre réglementaire catégorisant les applications d'IA en fonction de leurs niveaux de risque perçus.

Les applications à faible risque, telles que les filtres anti-spam et les systèmes de recommandation de contenu, sont soumises à des réglementations minimales ; ces applications sont tenues de divulguer leur utilisation de l’IA pour garantir la transparence. Les systèmes d’IA à haut risque, en particulier ceux déployés dans des secteurs sensibles comme la santé, l’éducation et les services publics, sont confrontés à des exigences réglementaires strictes ; ces systèmes doivent inclure une documentation détaillée de leurs processus et avoir une composante obligatoire de surveillance humaine de leurs opérations. Risque inacceptable Les systèmes d’IA sont considérés comme une menace pour les personnes et seront interdits ; cela inclut les systèmes de notation sociale, la police prédictive et les systèmes de reconnaissance des émotions dans les écoles et les lieux de travail.

En outre, la loi restreint l'utilisation de l'IA pour l'identification biométrique par la police dans les espaces publics, sauf dans les cas impliquant des crimes graves tels que le terrorisme ou les enlèvements.

La mise en œuvre de la loi sur l'IA devrait commencer en 2025, après l'approbation finale des États membres de l'UE, ce qui devrait être une formalité puisque la loi a déjà reçu l'approbation de l'organe législatif du bloc.

« La réglementation européenne sur l'IA jouera certainement un rôle important dans ce domaine », a déclaré Pötzsch. « Cela établira un cadre pour une utilisation fiable de l’IA dans tous les secteurs. »

Résumant son discours, Pötzsch a conclu que l'Europe a besoin d'une réglementation pratique qui fixe des garde-fous appropriés, « une réglementation qui s'attaque aux grands problèmes, évite une bureaucratie inutile et permet le progrès… Nous avons également besoin d'entreprises qui gèrent bien leurs risques liés aux cyberattaques ou à l'externalisation informatique et qui gèrent bien leurs risques. données et IA [responsibly].»

Pour que l’intelligence artificielle (IA) fonctionne dans le respect de la loi et prospère face à des défis croissants, elle doit intégrer un système de blockchain d’entreprise qui garantit la qualité et la propriété des données saisies, lui permettant ainsi de conserver les données en sécurité tout en garantissant leur immuabilité. de données. Consultez la couverture de CoinGeek sur cette technologie émergente pour savoir pourquoi la blockchain d'entreprise sera l'épine dorsale de l'IA.

Regarder  : L'Internet du futur  : unir la blockchain, l'IA et IPv6

Nouveau sur la blockchain ? Consultez la section Blockchain pour les débutants de CoinGeek, le guide de ressources ultime pour en savoir plus sur la technologie blockchain.