Fetch AI et SingularityNet s'associent pour éliminer les hallucinations de l'IA


Les développeurs Fetch AI et SingularityNET ont annoncé un nouveau partenariat pour lutter contre les hallucinations de l’IA à l’aide d’une technologie décentralisée.

L’accord entre Fetch AI et SingularityNET se concentrera sur la lutte contre la tendance des grands modèles de langage (LLM) à produire des résultats inexacts ou non pertinents, ou « hallucinations », qu’ils considèrent comme deux obstacles importants à la fiabilité et à l’adoption de l’IA.

Les plates-formes décentralisées telles que SingularityNET et Fetch permettent aux développeurs d’assembler des systèmes d’IA à plusieurs composants, avec différents composants fonctionnant sur différentes machines, sans aucun coordinateur central, a déclaré Ben Goertzel, PDG de SingularityNET, à Decrypt. « La possibilité d’expérimenter une variété de configurations différentes pour les systèmes d’IA à plusieurs composants, tels que les systèmes neuronaux-symboliques, offre une flexibilité d’un type différent de celle qui existe dans les infrastructures d’IA centralisées standard », a-t-il déclaré.

Fetch AI et SingularityNet s'associent pour éliminer les hallucinations de l'IA

L’accord prévoit également le lancement d’une série de produits encore inconnus en 2024 qui, selon eux, exploiteront la technologie décentralisée pour développer des modèles d’IA plus avancés et plus précis.

L’accord permettrait aux développeurs d’accéder et de combiner des outils tels que l’interface DeltaV de Fetch.ai et les API d’IA de SingularityNET, permettant ainsi aux développeurs d’IA de créer des modèles plus décentralisés, fiables et intelligents.

a ajouté Alexey Potapov mais constituent une distraction potentielle de l’objectif final. »

Intégration neuro-symbolique

L’intégration neuro-symbolique associe les réseaux de neurones, qui apprennent à partir des données, à l’IA symbolique, qui utilise des règles de raisonnement claires. Cette combinaison améliore l’apprentissage et la prise de décision de l’IA, la rendant adaptable et logiquement solide, conduisant à des applications d’IA plus précises et plus fiables.

«Nous ne prévoyons pas de réparer [hallucinations] complètement, bien sûr, mais je pense qu’une partie du plaisir avec les LLM est d’avoir des hallucinations parce que c’est là que l’innovation entre en jeu », a déclaré Humayun Sheikh, fondateur et PDG de Fetch AI. « D’une certaine manière, il faut être créatif sans aucune limite. »

Bien que les hallucinations de l’IA soient un problème, a déclaré Sheikh, le couplage des hallucinations avec les deepfakes générés par l’IA constitue une menace plus importante et non seulement une préoccupation actuelle, mais une préoccupation qui augmentera à l’avenir à mesure que l’IA deviendra plus avancée et les hallucinations plus convaincantes.

a-t-il ajouté.

La montée des hallucinations de l’IA

Parallèlement à la montée en puissance de l’intelligence artificielle, les hallucinations de l’IA ont également fait la une des journaux.

En avril, ChatGPT a accusé à tort un professeur de droit, Jonathan Turley, d’avoir agressé sexuellement un étudiant lors d’un voyage scolaire qu’il n’avait jamais fait.

En octobre, les avocats de Pras Michel, ancien membre des Fugees, ont déposé une requête pour un nouveau procès alléguant que son ancienne équipe juridique avait utilisé l’intelligence artificielle et que le modèle d’IA avait halluciné ses réponses, ce qui a conduit leur client à être reconnu coupable de 10 chefs d’accusation, notamment de complot en vue de falsifier des témoins. falsification de documents et activité d’agent étranger non enregistré.

Le manque de transparence dans le développement des modèles d’IA rend les hallucinations plus difficiles à combattre, ont déclaré des chercheurs de l’Université de Stanford, alors que les entreprises luttent pour dominer le marché. Et même si les développeurs d’IA générative peuvent affirmer qu’ils veulent être transparents, un rapport d’octobre du Centre de recherche sur les modèles de fondation (CRFM) de l’Université de Stanford affirme que le contraire est vrai.

Le responsable de la CRFM Society, Rishi Bommasani, a averti que les entreprises du secteur des fondations deviennent moins transparentes, ajoutant que « sans transparence, les régulateurs ne peuvent même pas poser les bonnes questions, et encore moins prendre des mesures dans ces domaines ».

OpenAI, Meta et IBM ont créé des groupes visant à renforcer la transparence dans le développement de l’IA. En juillet, OpenAI s’est associé à Anthropic, Google et Microsoft pour lancer le Frontier Model Forum, qui vise le développement responsable de modèles d’IA, y compris la gestion des hallucinations de l’IA.

Plus tôt ce mois-ci, IBM s’est associé à Meta pour lancer l’AI Alliance, un consortium de plus de 50 entités qui se sont réunies pour rechercher, développer et construire des modèles d’IA de manière responsable et transparente.

de scientifiques, d’universitaires et de chefs d’entreprise », a déclaré Arvind Krishna, président-directeur général d’IBM, dans un communiqué. « Il s’agit d’un moment charnière dans la définition de l’avenir de l’IA. »