Que sont les hallucinations de l’IA ? : Actualités E-Crypto


Qu’est-ce qui vous vient à l’esprit lorsque vous entendez le terme hallucinations ? Pour de nombreuses personnes, cela évoque des images de visions induites par l’insomnie, de choses qui ne sont pas réelles, de schizophrénie ou d’un autre type de maladie mentale. Mais avez-vous déjà rencontré une intelligence artificielle (IA) qui pourrait également avoir des hallucinations ?

La vérité est que les IA peuvent avoir des hallucinations de temps en temps, et c’est un problème pour les entreprises et les personnes qui les utilisent pour résoudre des tâches. Quelles sont les causes des hallucinations et quelles sont leurs implications ? Découvrons ici.

Que sont les hallucinations de l’IA ? : Actualités E-Crypto

Que sont les hallucinations de l’IA ?

Une hallucination d’IA est un scénario dans lequel un modèle d’IA commence à détecter des modèles de langage ou d’objet qui n’existent pas, ce qui affecte le résultat qui leur est donné. La plupart des IA génératives fonctionnent en prédisant des modèles de contenu, de langage et de tous les autres matériaux disponibles, et en donnant des réponses basées sur ceux-ci.

Chaque fois qu’une IA commence à générer une sortie selon des modèles qui n’existent pas ou qui ne correspondent pas à l’invite qui lui a été donnée, cela est connu sous le nom d’« hallucination de l’IA ».

Par exemple, un chatbot du service client sur un site de commerce électronique, lorsqu’on lui demande quand une commande sera livrée, donne des réponses absurdes et sans rapport avec la question. C’est un incident courant d’hallucination de l’IA.

Connexes  : Qu’est-ce que l’IA sensible et deviendra-t-elle réelle ?

Pourquoi les hallucinations de l’IA se produisent-elles ?

Fondamentalement, les hallucinations de l’IA se produisent puisque l’IA générative est conçue pour faire des prévisions en fonction du langage, mais ne « comprend » pas le langage humain ni ce qu’il dit.

Par exemple, un chatbot IA pour un magasin de vêtements est conçu pour savoir que lorsqu’un utilisateur tape les mots « retardé » ou « commande », sa réponse doit être de vérifier l’état de la commande du client et de l’informer qu’elle est en route. ou a déjà été livré. L’IA ne « sait » pas vraiment ce qu’est une commande ou ce qu’est un retard.

Par conséquent, si un utilisateur tape dans le chatbot qu’il souhaite retarder sa commande car il ne sera pas chez lui, une telle IA peut continuer à lui indiquer l’état de sa commande sans répondre à sa requête. Si vous parliez à une personne qui comprend les nuances du langage, elle saura que le simple fait que certains mots apparaissent dans une invite ne signifie pas la même chose à chaque fois.

ne fait pas la différence. Au lieu de cela, il apprend à prédire des modèles de langage et travaille sur cette base. Les hallucinations semblent également se produire lorsqu’un utilisateur donne une invite mal construite ou trop vague, ce qui prête à confusion. Normalement, les IA s’améliorent en matière de prédiction du langage au fil du temps, mais les hallucinations de l’IA sont vouées à se produire de temps en temps.

Types d’hallucinations de l’IA

Normalement, les hallucinations de l’IA se produisent de différentes manières  :

  • Inexactitudes factuelles – La plupart des gens se tournent désormais vers l’IA pour poser des questions sur divers faits et déterminer si certaines choses sont vraies ou fausses. L’IA, néanmoins, n’est pas toujours parfaite et les hallucinations de l’IA peuvent se produire en fournissant des informations incorrectes lorsqu’un utilisateur le demande
  • Informations fabriquées – il est possible pour l’IA d’inventer entièrement des faits, du contenu et même des personnes qui n’existent pas. Dans le passé, les IA ont écrit de faux articles d’information, incluant des personnes et des événements qui ne sont pas vrais et les faisant passer pour des faits réels. Tout comme la façon dont les humains peuvent raconter des histoires, l’IA le peut aussi
  • Contradiction d’invite – cela se produit lorsque l’IA propose une réponse à une invite qui n’a rien à voir avec ce qui a été demandé. Nous avons tous interrogé nos chatbots ou nos assistants vocaux, par exemple, sur une chose et ils commencent à parler de quelque chose d’autre qui n’a aucun rapport
  • Déclarations bizarres – L’IA est connue pour faire des déclarations et des affirmations qui semblent sortir de nulle part et peuvent être bizarres, comme se moquer de l’utilisateur ou prétendre être une personne réelle
  • Fausses nouvelles – Une hallucination de l’IA peut amener l’IA à proposer de fausses informations sur de vraies personnes qui existent. Ce type d’informations peut s’avérer préjudiciable aux personnes concernées

Conséquences des hallucinations de l’IA

il vaut la peine d’en explorer les conséquences. Les hallucinations de l’IA peuvent causer de nombreux problèmes graves.

mais les hallucinations de l’IA pourraient mettre un frein à nos plans. Les gens comptent sur des médias réputés pour obtenir des informations légitimes et si les hallucinations de l’IA continuent de créer de faux faits, la vérité et les mensonges seront flous.

Cette confiance est ébranlée lorsque les modèles d’IA diffusent de fausses nouvelles aux utilisateurs ou proposent des faits qui ne sont pas corrects.

Si cela reste constant, les utilisateurs commenceront à recouper les réponses de l’IA, ce qui va à l’encontre de l’objectif. Avec cela, la confiance dans l’IA sera diminuée. Il y a aussi le fait que les IA donnant des réponses absurdes ou inutiles ne feront qu’irriter et aliéner les utilisateurs.

De plus, la plupart des gens se tournent vers l’IA pour obtenir des conseils ou des recommandations sur tout, des devoirs scolaires à la nourriture. Si l’IA fournit des informations incorrectes, les gens peuvent finir par se faire du mal, ce qui constitue un problème entièrement nouveau.

Connexe  : AutoGPT démystifié  : le nouvel outil d’IA « à tout faire »

Exemples d’hallucinations de l’IA

Un exemple majeur d’hallucination de l’IA serait le chatbot Bard alléguant à tort que la première image d’une planète en dehors de la Voie lactée a été prise par le télescope spatial James Webb. En réalité, la première image a été prise en 2004, environ 7 ans avant même le lancement du télescope spatial James Webb.

Un autre exemple est ChatGPT, qui invente de faux articles associés au journal The Guardian, incluant un faux auteur et de faux événements qui ne se sont jamais produits. Ou, par exemple, l’IA Bing de Microsoft a insulté et menacé un utilisateur de révéler ses informations personnelles et de « ruiner ses chances de trouver un emploi » après son lancement en février 2023.

Détecter et prévenir les hallucinations de l’IA

Puisque l’IA n’est pas infaillible, les développeurs et les utilisateurs doivent savoir comment détecter et prévenir les hallucinations de l’IA pour éviter d’en subir les inconvénients. Voici quelques façons de détecter et de prévenir les hallucinations de l’IA  :

  • Vérifiez les résultats – si un modèle d’intelligence artificielle vous donne une réponse particulière à une question, effectuez une recherche en ligne pour vous assurer qu’elle est correcte. Ceci est doublement important si les informations doivent être utilisées à des fins scolaires ou professionnelles
  • Donnez des invites claires – lorsque vous traitez avec l’IA, essayez de rendre vos invites aussi claires et directes que possible. Cela réduit les risques que l’IA l’interprète mal
  • Formation approfondie sur l’IA – Si vous développez une IA, vous devez la former sur la base de matériaux divers et de qualité supérieure et la tester autant que possible avant qu’elle ne soit rendue publique
  • Expérimentez avec la température de l’IA – la température dans le développement de l’IA est un paramètre qui détermine le degré d’aléatoire de la réponse de l’IA, des températures plus élevées signifiant que les hallucinations sont plus possibles. Expérimentez avec les températures et assurez-vous qu’elles sont à un niveau sûr avant de libérer votre IA

Les plats à emporter

plus nous prenons conscience de ses limites et des problèmes qui restent à résoudre. L’hallucination de l’IA est un véritable problème dans le monde de la technologie et dont les utilisateurs et les créateurs d’IA doivent être conscients.

Qu’il s’agisse d’une faille dans le système ou de problèmes d’invite, les IA peuvent donner et ont donné des réponses fausses, absurdes et bien plus encore. Il appartient aux développeurs de s’efforcer de rendre les IA presque infaillibles et aux utilisateurs de faire preuve de prudence lorsqu’ils utilisent l’IA.

Navigation des articles