L'IA peut-elle sauver le journalisme des fake news ? Pas encore, mais ces outils peuvent vous aider


Dans un monde où les fausses nouvelles se répandent à une vitesse vertigineuse, il est de plus en plus difficile de distinguer les faits de la fiction. Et malgré les innombrables heures de travail et les millions de dollars investis dans des projets et des politiques visant à promouvoir un journalisme véridique, la situation reste loin d’être idéale – et c’était avant que l’intelligence artificielle ne puisse être enrôlée pour créer de fausses images réalistes.

En fait, les fausses nouvelles sont considérées comme la liberté d’expression, selon le Contrôleur européen de la protection des données, et il est presque impossible de lutter contre la désinformation car « la masse de fausses nouvelles diffusées sur les réseaux sociaux ne peut pas être gérée manuellement ».

Heureusement, et à juste titre, l’intelligence artificielle peut également jouer un rôle dans la démasquage des fausses nouvelles, quelle que soit la manière dont elles sont générées. Cette puissance provient principalement de la croissance explosive de grands modèles de langage comme GPT-4.

L'IA peut-elle sauver le journalisme des fake news ? Pas encore, mais ces outils peuvent vous aider

Par exemple, des développeurs anonymes ont lancé AI Fact Checker, un outil créé pour utiliser l’IA pour vérifier les informations. Une fois qu’un utilisateur saisit une réclamation dans le vérificateur, la plate-forme recherche des sources fiables sur Internet, analyse les données et compare ces informations avec la réclamation fournie. Il détermine ensuite si l’affirmation ou le fait est vrai, faux ou peu clair et fournit des sources pour étayer ses conclusions.

Decrypt a testé la fonctionnalité de l’outil et a démontré un niveau de précision de 100 % lors de la vérification des faits récents, des événements historiques et des informations diverses. Cependant, lorsqu’il s’agissait de consulter des informations sur les prix des biens, des services et des véhicules d’investissement, l’outil a trébuché et a commencé à confondre les informations sur les prévisions avec le comportement réel des prix.

D’autres outils d’intelligence artificielle visent le même problème  : les outils de vérification des faits de Google, Full Fact et FactInsect sont parmi les plus renommés. Il existe même des alternatives décentralisées comme Fact Protocol et Civil, aujourd’hui disparu. Mais une alternative commence à se démarquer de la foule en raison de sa facilité d’utilisation et de sa précision : le navigateur et le moteur de recherche alimentés par l’IA de Microsoft.

Le géant du logiciel a intégré GPT-4 dans son navigateur Edge, offrant aux utilisateurs un bot AI à portée de main. Contrairement à ChatGPT (qui ne peut pas rechercher d’informations sur le Web et dispose d’un ensemble de données fixe datant d’avant 2021), le nouveau Bing avec GPT-4 est capable de surfer sur le Web, de sorte qu’il peut fournir instantanément des réponses précises et à jour, en fournissant des liens à des sources fiables pour toute question, y compris la confirmation ou la démystification d’un fait douteux.

Un menu latéral avec trois options s’ouvrira. Ensuite, sélectionnez l’option Chat, demandez ce que vous voulez savoir et l’IA de Microsoft vous donnera la réponse.

L’IA alimentée par GPT de Microsoft valide le titre de Decrypt. Nous ne diffusons pas de fausses nouvelles.Les utilisateurs peuvent également cliquer sur l’option Insights, et l’IA alimentée par GPT de Microsoft fournira des informations pertinentes sur le site Web publiant les nouvelles, y compris les sujets couverts, les thèmes pertinents, le trafic des pages et la clarification des critiques courantes. Contrairement à l’outil AI Fact Checker, il ne fournit pas de réponse concrète en disant « c’est vrai » ou « c’est faux », mais il fournit suffisamment d’informations pour tirer une conclusion.

L’autre côté de la pièce

Bien que l’IA puisse suivre et comparer plusieurs sources d’informations en quelques secondes, il existe également des risques associés à l’utilisation d’algorithmes d’IA pour vérifier les informations. Certaines lacunes de l’IA incluent  :

Formation sur des modèles défectueux : Si un algorithme d’IA est formé avec des données inexactes ou biaisées, ses performances pourraient être affectées négativement et produire des résultats incorrects. Il est crucial de s’assurer que les données utilisées pour former les algorithmes d’IA sont exactes et représentatives.

Hallucinations de l’IA  : Les algorithmes d’IA peuvent générer des informations qui semblent plausibles mais qui n’ont aucune base réelle. Ces hallucinations peuvent conduire à de fausses conclusions lors de la vérification des nouvelles.

Vulnérabilité à la manipulation  : Les algorithmes d’IA peuvent être sensibles aux attaques et aux manipulations, telles que l’injection de données fausses ou biaisées dans leur processus d’apprentissage. Celles-ci sont quelque peu équivalentes à une attaque à 51%, mais dans un contexte d’IA. Un plus grand nombre de renforts incorrects sont utilisés, ce qui amène le modèle à supposer que les données erronées sont vraies.

Les systèmes d’intelligence artificielle tels que ChatGPT sont sensibles aux attaques d’empoisonnement. Ces types d’attaques sont pertinents lorsque des acteurs de la menace attaquent des ensembles de données de formation, une chaîne de preuve éliminera de tels scénarios.

Cela est particulièrement préoccupant dans les modèles qui reposent sur l’interaction humaine ou dans les modèles qui sont soumis à une entité centrale qui les gère. c’est exactement ce qui se passe avec OpenAI et ChatGPT.

Restez au courant des actualités cryptographiques, recevez des mises à jour quotidiennes dans votre boîte de réception.