La robotique compromettra l'IA si nous ne réglons pas d'abord la vérification des données
Divulgation : les points de vue et opinions exprimés ici appartiennent uniquement à l'auteur et ne représentent pas les points de vue et opinions de l'éditorial de crypto.news.
Lors d'une conférence sur la robotique, des chercheurs ont débattu des enjeux liés aux données dans ce domaine. Ils s'accordent à dire que la fiabilité des données est cruciale pour assurer la sécurité des robots, surtout lorsqu'ils opèrent en dehors d'environnements contrôlés. La nécessité de mécanismes de vérification basés sur la blockchain a également été soulignée pour prévenir les erreurs potentiellement dangereuses.
La transition vers une robotique sans environnement contrôlé crée des défis majeurs
L'intelligence artificielle (IA) peine à faire la différence entre le vrai et le faux. Une étude récente menée par l’Université de Stanford a révélé que même 24 modèles avancés ne peuvent pas distinguer systématiquement entre ces deux notions. Par exemple, lorsque l’utilisateur affirme que « les humains n’utilisent que 10 % de leur cerveau », l’IA doit reconnaître cette affirmation comme un point de vue, mais elle échoue souvent à le faire correctement.
Cette incapacité met en lumière un problème fondamental : les systèmes d'IA modernes confondent leurs connaissances avec celles des utilisateurs, créant ainsi une limitation dans des domaines sensibles tels que la médecine ou l'éducation. Cette question devient encore plus pressante quand ces technologies sont déployées hors du laboratoire vers le monde réel.
Les erreurs dans les données peuvent avoir des conséquences graves
Dans le contexte robotique, une simple erreur peut être catastrophique. Une citation incorrecte dans un rapport est gênante, mais une donnée erronée alimentant un robot naviguant pourrait entraîner des accidents graves. Les robots doivent interagir efficacement avec un monde complexe rempli d'incertitudes qui ne peuvent pas toujours être capturées par des ensembles de données préalablement organisés.
Le défi principal réside dans le fait qu’une augmentation du volume de données ne garantit pas leur qualité ou leur pertinence pour les situations réelles auxquelles sont confrontés les robots. De plus, il existe divers facteurs pouvant altérer ces informations telles que la corruption ou l'usurpation provenant des capteurs utilisés par les machines.
Des solutions basées sur la blockchain sont nécessaires pour garantir la fiabilité
Pour permettre aux robots d’opérer en toute sécurité au-delà d’environnements contrôlés, il est impératif qu’ils disposent non seulement de meilleurs algorithmes mais aussi de données fiables qui soient indépendantes du système utilisant ces dernières. L’IA actuelle suppose généralement que ses entrées sont dignes de confiance ; cependant, cette hypothèse s'avère fausse dès qu’elle interagit avec le monde physique.
Cela explique pourquoi beaucoup d’échecs robotiques proviennent non pas d'un manque d'informations mais plutôt du fait que ces informations ne reflètent pas fidèlement leur environnement opérationnel réel. Lorsque les renseignements fournis sont incomplets ou trompeurs, cela conduit inévitablement à un échec avant même que le robot puisse identifier un problème potentiel.
C’est là qu’intervient OpenMind, soutenu par un investissement récent de 20 millions $ par Pantera Capital. Ce projet vise à établir une couche supplémentaire basée sur la technologie blockchain afin d'assurer une coordination fiable entre différents systèmes robotiques et garantir l’intégrité des informations échangées. Comme Jan Liphardt, fondateur du projet OpenMind a déclaré : « si l’IA est le cerveau et la robotique le corps, alors la coordination représente notre système nerveux ».
L'avenir dépendra davantage de preuves solides plutôt que du volume data
L'intégration croissante de vérifiabilité au sein même des infrastructures IA souligne cette tendance nécessaire vers plus de transparence et moins *d'hypothèses*. Des initiatives comprennent notamment EQTY Lab qui propose une surveillance vérifiable pour l'IA basée sur Hedera et ChainGPT qui développe une infrastructure pour valider en chaîne ses modèles IA.
Ces efforts visent tous à assurer qu’un système basé sur IA soit capable non seulement d'interpréter ses propres mesures mais aussi de prouver chacune d’elles grâce à une vérification cryptographique continue permettant ainsi aux machines autonomes non seulement d'accepter passivement ce qui leur est présenté comme étant correct mais également *de rejeter* activement tout signal suspect ou corrompu.
Ainsi, alors même qu’il sera crucial pour nos futurs systèmes robotiques d’être dotés *d’une grande échelle*, ils devront aussi devenir capables *d’assurer* où ils se trouvent réellement ainsi quel travail ils accomplissent grâce aux preuves tangibles fournies tout au long du processus décisionnel.
Markus Levin Markus Levin est co-fondateur chez XYO Network et responsable opérationnel chez XY Labs depuis sa création en 2018 ; son initiative vise à relier directement via blockchain toutes interactions physiques avec smart contracts numériques assurant ainsi transparence .
