L'Europe dévoile la première réglementation mondiale sur l'IA


Vendredi a été un grand jour dans l’histoire de la technologie, car c’est le jour où les négociateurs de l’Union européenne (UE) ont terminé d’écrire le premier ensemble complet de règles au monde pour l’IA, ou plus communément, l’intelligence artificielle.

Cet accord, baptisé « Loi sur l’intelligence artificielle », constitue un grand pas en avant vers un contrôle judiciaire de la technologie.

Après d’intenses discussions à huis clos, les négociateurs du Parlement européen et des 27 États membres de l’UE ont pu aplanir leurs divergences et parvenir à un accord politique préliminaire sur la loi sur l’IA.

L'Europe dévoile la première réglementation mondiale sur l'IA

Les discussions ont porté sur des sujets délicats, tels que l’IA générative et la manière dont la police utilise la reconnaissance faciale à des fins d’espionnage. Thierry Breton, le commissaire européen, a annoncé cette avancée et a souligné le rôle de premier plan de l’UE en tant que premier continent à établir des règles claires pour son utilisation.

Accord  ! #AIAct

Même si les résultats ont été bons après des réunions marathon qui ont duré plus de 20 heures, les groupes de la société civile n’étaient pas satisfaits de l’accord car ils estimaient qu’il n’offrait pas suffisamment de protections contre les dommages que ce type de technologie pourrait causer. Ils ont souligné la nécessité d’apporter davantage de détails techniques, qui seront améliorés dans les prochaines semaines.

L’Europe prend la tête de la législation sur l’IA

En publiant la première version de ses règles sur l’intelligence artificielle en 2021, l’UE avait déjà pris l’initiative de créer des règles sur l’IA dans le monde. Mais en raison de l’essor de l’IA générative, les dirigeants européens ont dû modifier leur plan, censé servir de modèle pour le monde entier.

Afin d’obtenir l’approbation officielle, le Parlement européen s’apprête à voter la loi sur l’IA dans les premiers mois de la nouvelle année. Si elle était adoptée, la loi n’entrerait en vigueur qu’au moins avant 2025. Les sanctions en cas de non-respect seraient très sévères, pouvant atteindre 35 millions d’euros (38 millions de dollars), soit 7 % du chiffre d’affaires mondial d’une entreprise.

Les systèmes d’IA générative individuels, comme ChatGPT d’OpenAI, ont retenu beaucoup d’attention pour leur capacité à créer des écrits, des images et de la musique qui ressemblent tellement au travail humain. Certaines personnes craignent que cela puisse mettre en danger l’emploi, la vie privée, la sécurité des droits d’auteur et même la vie humaine.

Alors que l’UE, les États-Unis, le Royaume-Uni, la Chine et d’autres groupes mondiaux élaborent également leurs propres règles en matière d’IA, les règles de l’UE pourraient constituer un exemple puissant à suivre pour d’autres.

Au début, l’AI Act ne s’en prenait qu’à certaines fonctions de l’IA en fonction de leur niveau de risque. Plus tard, il a élargi sa portée pour inclure les modèles de base, qui sont les systèmes complexes qui rendent possibles des services d’IA à usage général comme ChatGPT et le robot Bard de Google.

Même s’il y a eu quelques problèmes, les négociateurs ont réussi à trouver un équilibre sur les modèles de base. Ils ont ajouté davantage d’exigences en matière de documentation technique, conformément à la loi européenne sur le droit d’auteur, à l’évaluation des risques, au signalement des incidents, aux mesures de cybersécurité et au partage d’informations sur l’efficacité énergétique de quelque chose.

Les chercheurs préviennent que les grandes entreprises technologiques pourraient abuser de modèles de base solides, soulignant des risques tels que la diffusion de fausses informations en ligne, le piratage informatique, la fabrication d’armes biologiques et la manipulation des personnes. Les règles de l’UE en matière d’IA pourraient avoir un effet sur les règles du monde entier, servant de modèle à d’autres pays souhaitant réglementer l’IA.

Comment les règles européennes de l’IA pourraient avoir un impact sur l’industrie de la cryptographie

La décision de l’Union européenne (UE) de finaliser la loi sur l’intelligence artificielle a un impact important sur le secteur des cryptomonnaies. Plus précisément, les lois relatives à l’IA générative, comme ChatGPT d’OpenAI, présentent des problèmes importants. Ces technologies largement utilisées dans le secteur des cryptomonnaies peuvent être soumises à des réglementations et à des inspections plus strictes en ce qui concerne les activités automatisées des plateformes de blockchain et la production de contenu.

L’accent mis par l’AI Act sur la sécurité et la confidentialité des données est conforme à la nécessité de transactions sécurisées dans le secteur des cryptomonnaies. Les sociétés de cryptographie qui exercent leurs activités dans l’UE doivent respecter ces règles afin d’éviter d’être confrontées à de lourdes amendes pouvant aller jusqu’à 7 % de leur chiffre d’affaires total. Cet accent mis sur la conformité pourrait conduire à des efforts accrus au sein du secteur des cryptomonnaies pour adhérer aux normes changeantes relatives à l’IA.

L’inclusion de modèles de base dans l’AI Act, qui sont nécessaires pour les services d’IA à usage général, a un impact direct sur les initiatives blockchain qui incluent la technologie d’IA. De plus, l’impact mondial de la législation de l’UE pourrait influencer les approches adoptées par la Chine et les États-Unis, deux autres acteurs importants dans le domaine de la cryptographie, en matière de gouvernance de l’IA.

Les politiques innovantes de l’UE en matière d’IA étendent essentiellement leur influence au secteur des crypto-monnaies, impactant les normes de confidentialité des données, créant des précédents mondiaux pour la jonction de l’IA et des crypto-monnaies et influençant l’intégration des technologies d’IA. La loi sur l’IA aura probablement un impact significatif et de grande envergure sur l’évolution de la scène des crypto-monnaies à mesure qu’elle se développe.