Faire confiance, mais vérifier (avec de meilleures données) : surmonter le problème des hallucinations de l'IA


Divulgation : les points de vue et opinions exprimés ici appartiennent uniquement à l'auteur et ne représentent pas les points de vue et opinions de l'éditorial de crypto.news.

a récemment proposé un choix intéressant pour son mot de l'année 2023  : halluciner. Cela n'est pas dû à une panique autour d'un nouveau type d'hallucinogène ou à un nouveau mouvement d'hystérie de masse, mais à un nom très particulier pour un phénomène très particulier découlant de l'industrie émergente de l'intelligence artificielle, ou plus précisément de l'intelligence artificielle générale ( AGI), qui a pris son envol dans la conscience publique depuis le lancement par OpenAI du chatbot génératif d'IA ChatGPT en novembre 2022.

Bien sûr, seuls les organismes vivants dotés de sens réels peuvent « halluciner », mais c’est le terme fourre-tout qui a été utilisé pour décrire le moment où une intelligence artificielle fournit de fausses informations ou génère un langage aléatoire qui ne répond pas à la requête particulière qui lui a été posée..

Faire confiance, mais vérifier (avec de meilleures données) : surmonter le problème des hallucinations de l'IA

Dans un cas, l'intelligence artificielle du moteur de recherche Bing de Microsoft a commencé à ignorer les requêtes d'un journaliste du New York Times tout en tentant de le persuader de quitter sa femme. En dehors de cette curiosité amusante (peut-être pas tant pour le journaliste), les premières hallucinations d'AGI ont créé de réels problèmes lorsque les utilisateurs de moteurs de requête comme ChatGPT acceptent sans poser de questions ses réponses. Dans un cas, des avocats ont été condamnés à une amende (et ont ri hors de la salle d'audience) pour avoir utilisé ChatGPT pour rédiger un dossier juridique rempli de plusieurs fausses citations.

Ces avocats se sont créés des difficultés financières à court terme et, sans aucun doute, des embarras personnels et professionnels à long terme, mais que se passe-t-il lorsque des millions, voire des milliards, sont en jeu ?

analyse de données à notre infrastructure d'

Peu de gens peuvent oublier les débuts – et parfois périlleux – du trading automatisé à haute fréquence, comme lorsqu’un algorithme a effacé près d’un demi-milliard de dollars de valeur de la Bourse de New York en 2012. Les fausses données présentées par les investisseurs potentiels Les hallucinations AGI, enveloppées dans un langage familier et proche des humains, peuvent être encore plus risquées, non seulement en propageant de fausses données qui peuvent exacerber des transactions mal informées et des paniques financières, mais aussi en persuadant les traders humains de commettre d'autres erreurs de jugement à plus long terme.

Pourquoi les hallucinations sont-elles créées ? Parfois, la façon dont les invites sont construites peut confondre les itérations actuelles de l’IA générative ou des grands modèles de langage (LLM). De la même manière, les haut-parleurs intelligents comme Google Home ou Amazon Echo peuvent interpréter à tort le bruit de fond comme une requête qui leur est adressée.

Le plus souvent, il s’agit également d’un cas où les premiers AGI ont été formés sur un ensemble de données défectueux, soit en raison d’un étiquetage erroné, soit d’une mauvaise catégorisation. Il ne s’agit pas simplement d’un cas où les différents côtés de l’allée politique ont leur propre définition des « faits alternatifs » ou des « fausses nouvelles » ou choisissent de mettre l’accent sur les nouvelles qui donnent une bonne image à leur côté et à l’autre une mauvaise image ; l'AGI n'a tout simplement pas suffisamment de données dans son modèle pour fournir une réponse directe ou cohérente, elle se retrouve donc dans le terrier du lapin en fournissant une réponse incohérente et indirecte.

D'une certaine manière, ce n'est pas sans rappeler les autres technologies naissantes qui l'ont précédée, avec une ambition qui dépassait la qualité et la rapidité de livraison des données existantes. Internet n’a vraiment changé la donne que lorsqu’il a pu transporter des quantités importantes de données d’un ordinateur personnel à un autre, et certains diraient que la donne a vraiment changé lorsque nos téléphones portables ont pu faire de même. Cette nouvelle AGI forme également les humains à continuer à construire pour fournir à ces nouveaux modèles d’IA de meilleurs ensembles de données et des moyens plus efficaces de fournir des informations et des renseignements rapides, utilisables et, espérons-le, cohérents.

Beaucoup ont suggéré différentes façons de minimiser les hallucinations, y compris ce qu'on appelle une génération augmentée par récupération (RAG), qui est essentiellement un moyen de mettre à jour continuellement les sources de données en temps réel. Cela pourrait être l’un des avantages de Grok AI d’Elon Musk, qui a accès à la source de données publiques en temps réel la plus populaire des 15 dernières années.

Cependant, je suis partisan de la blockchain comme solution. Il ne serait pas enfermé dans un gardien d’entreprise ou dans un jardin de données cloisonné et pourrait créer de nouvelles et meilleures sources de données décentralisées. La blockchain est conçue non seulement pour le stockage et la transmission de données peer-to-peer, mais également pour la transmission de paiements, ce qui pourrait créer de nouvelles méthodes d'incitation pour ce qui sera certainement une nouvelle étape radicale d'une économie de l'information basée sur l'IA.

Dans le monde de la finance, quelque chose comme un graphe de connaissances décentralisé permettrait et inciterait les parties prenantes du secteur à partager davantage de données de manière transparente. La blockchain serait capable de mettre à jour et de vérifier toutes les informations pertinentes et immuables en temps réel. Cette méthode de vérification des données serait une version suralimentée de RAG et réduirait considérablement le nombre d'hallucinations AGI, avec des actifs de connaissances ayant une sémantique et une vérifiabilité intégrées (dans un souci de divulgation, j'ai travaillé avec OriginTrail, qui développe sa version d'un système de connaissances décentralisé). graphique).

plus robustes et plus rapides dans la réalité que nous créons et non dans celle qu’ils « hallucinent ».

Enzo Villani

de la gouvernance d'entreprise et de la technologie financière. Dans l'industrie de la blockchain, Enzo était le directeur de la stratégie du Transform Group, qui représentait le lancement de plus de 37 % de la capitalisation boursière des alt-coins en 2019. Il a cofondé Blockchain Wire et a supervisé la stratégie internationale et l'innovation chez OKEx. Enzo est titulaire d'un MBA de la Cornell University Johnson School.

Suivez-nous sur Google Actualités