La loi européenne sur l’IA ouvre la voie à une réglementation plus claire  : qu’est-ce que cela signifie  ?

  • La loi européenne sur l'IA ouvre la voie à une réglementation plus claire.
  • La réglementation de l'UE vise à garantir la sécurité, la transparence et la traçabilité des systèmes d'IA.
  • L'utilisation de la blockchain pourrait être cruciale pour atténuer les risques liés à l'IA.

Alors que l’innovation en matière d’intelligence artificielle (IA) progresse à un rythme effréné, l’Union européenne est devenue la première région à élaborer des règles qui apporteraient une clarté réglementaire aux développeurs et aux entreprises souhaitant utiliser la technologie de l’IA.

Même si le vote officiel n'aura pas lieu au Parlement européen avant le printemps, il devrait être adopté puisqu'il a reçu un vote favorable au stade provisoire.

Que contient la loi européenne sur l’IA ?

La loi sur l’IA obligera les développeurs à procéder à des évaluations des risques, en plaçant les capacités de l’IA dans quatre catégories de risques : minime, limité, élevé et inacceptable. Cela interdirait également la police prédictive, tandis que les applications génératives comme ChatGPT bénéficieraient d'une surveillance minimale.

La loi européenne sur l’IA ouvre la voie à une réglementation plus claire  : qu’est-ce que cela signifie  ?

Il existe également de nombreuses applications d'IA interdites, notamment les systèmes de catégorisation biométrique qui utilisent des caractéristiques sensibles, le scraping non ciblé pour créer des bases de données de reconnaissance faciale, la reconnaissance des émotions sur le lieu de travail ou à l'école, la notation sociale basée sur le comportement ou les caractéristiques personnelles, les systèmes qui manipulent le comportement humain et contournent leurs le libre arbitre et les systèmes d’IA utilisés pour exploiter les vulnérabilités.

Il existe quelques exceptions pour les forces de l'ordre, comme la possibilité d'utiliser des systèmes d'identification biométrique pour effectuer des recherches ciblées de personnes soupçonnées ou reconnues coupables d'un crime. Cela serait soumis à une autorisation judiciaire préalable et ne pourrait être utilisé que pour des listes de crimes strictement définies.

L’UE est-elle encore en train de trop réglementer ?

Ce n’est un secret pour personne que l’économie de l’UE est à la traîne par rapport à celle des États-Unis depuis des décennies. Certains critiques suggèrent que la réglementation excessive éloigne les startups du continent et impose des charges excessives aux entrepreneurs potentiels. En effet, le groupe de défense Digital Europe a formulé exactement cette critique à l’égard de la loi sur l’IA.

Cependant, Nader Henein, chercheur et défenseur de la confidentialité des informations chez Gartner, a déclaré que les règles « ne constituent en aucun cas un obstacle à l'innovation ». Il a souligné que l'innovation trouve un moyen de fonctionner dans les limites réglementaires et d'en faire un avantage. Il a déclaré que l’adoption des règles devrait être « simple ».

Même si les règles devront sans aucun doute être mises à jour à l’avenir, à mesure que le rythme de développement de l’IA progresse plus rapidement que quiconque ne peut l’imaginer, la loi sur l’IA est un début. Parallèlement aux réglementations européennes sur les marchés d'actifs cryptographiques (MiCA) et à d'autres liées à la blockchain et aux monnaies numériques, l'UE avance à toute vitesse vers ses objectifs de la décennie numérique.

En parlant de blockchain…

Décrivant la loi sur l'IA en ligne, l'UE a déclaré que ses priorités étaient de garantir que les systèmes d'IA utilisés à l'intérieur de ses frontières soient sûrs, transparents, traçables, non discriminatoires et respectueux de l'environnement. Il souligne que « les systèmes d’IA devraient être supervisés par des personnes, plutôt que par l’automatisation, pour éviter des conséquences néfastes ».

Compte tenu de sa profonde expertise dans la technologie blockchain et les monnaies numériques, l’UE sait peut-être déjà comment cette technologie est conçue sur mesure pour garantir un développement sûr et transparent de l’IA. Les registres numériques distribués peuvent créer une piste de preuves inviolable et horodatée pour garantir l'intégrité des données utilisées par les modèles d'IA et pour responsabiliser les développeurs.

Atténuer les risques de l’IA grâce à la transparence

Même si ceux qui n’aiment pas la réglementation gouvernementale, quelle qu’elle soit, auront un problème avec les réglementations proposées par les gouvernements, on ne peut nier qu’une certaine responsabilité et une certaine gestion des risques sont nécessaires lorsqu’il s’agit d’IA.

Si la sécurité, la transparence et la traçabilité sont les objectifs, et ils devraient l’être, les blockchains publiques évolutives comme BSV sont les meilleurs outils pour y parvenir. Il est impératif de savoir ce qui s’est passé, quand et qui est responsable si l’on veut que la réglementation régissant l’IA ait du mordant.

Pour que l'intelligence artificielle (IA) fonctionne dans le respect de la loi et prospère face à des défis croissants, elle doit intégrer un système de blockchain d'entreprise qui garantit la qualité et la propriété de la saisie des données, lui permettant ainsi de protéger les données tout en garantissant également l'immuabilité. de données. Consultez la couverture de CoinGeek sur cette technologie émergente pour savoir pourquoi la blockchain d'entreprise sera l'épine dorsale de l'IA.

Regarder  : Les micropaiements permettront aux gens de faire confiance à l'IA

Nouveau sur la blockchain ? Consultez la section Blockchain pour les débutants de CoinGeek, le guide de ressources ultime pour en savoir plus sur la technologie blockchain.