Transformé, pas supprimé  : les chercheurs en IA se prononcent sur l'avenir

  • Une enquête auprès de plus de 2 700 chercheurs en IA révèle que seulement 5% pensent qu'il y a un risque élevé d'extinction de l'humanité à cause de l'IA.
  • Les prédictions concernant les avancées de l'IA sont plutôt optimistes, avec une probabilité de réussite de 50% pour des capacités comparables à celles des humains d'ici 2047.
  • Cependant, il existe des inquiétudes concernant la sécurité, la désinformation et la surveillance potentielle liées à l'IA avancée.

Malgré le coup de semonce entendu dans le monde entier – une lettre ouverte signée par des centaines de dirigeants de l’industrie déclarant l’intelligence artificielle comme une menace existentielle pour l’humanité – une nouvelle enquête menée auprès de plus de 2 700 experts en IA dresse un tableau moins sombre de l’avenir.

L'enquête complète sur les impacts de l'IA, menée avec l'aide de chercheurs des universités d'Oxford, de Berkeley et de Bonn, a interrogé les chercheurs en IA sur le rythme des progrès dans le domaine et sur l'impact potentiel des systèmes d'IA avancés. Bien qu’un large éventail de points de vue aient été compilés, seuls 5 % environ estiment qu’il existe un risque élevé d’extinction de l’humanité à cause de l’IA.

Cela contraste fortement avec les sentiments du grand public.

Transformé, pas supprimé  : les chercheurs en IA se prononcent sur l'avenir

Un sondage d’août 2023 révèle que 61 % des Américains considèrent l’IA comme une menace pour l’humanité. Cette préoccupation a été reprise par les dirigeants de l'industrie qui ont signé une lettre du Center for AI Safety affirmant que « l'atténuation du risque d'extinction de l'IA devrait être une priorité mondiale ».

Paul Christiano, ancien chef de l'alignement chez OpenAI, estime qu'il y a 50 % de chances que l'IA se termine par une « catastrophe ». Beaucoup ont déclaré que l’IA constituait une menace comparable à une guerre nucléaire ou à une pandémie mondiale.

Malgré ces prédictions pessimistes largement évoquées, l’IA continue d’évoluer. Les entreprises se précipitent pour développer des systèmes plus avancés, le PDG d'OpenAI, Sam Altman, plaidant en faveur de réglementations tout en s'efforçant de tester les limites de la technologie.

En ce qui concerne les capacités de l'IA, de nombreuses personnes interrogées prédisent que l'IA franchira des étapes créatives majeures d'ici 10 ans  : coder un site Web de paiement complet à partir de zéro, par exemple, ou créer des chansons impossibles à distinguer des succès actuels. Mais les délais étaient plus longs pour des défis tels que la démonstration de théorèmes mathématiques.

Plus précisément, la possibilité que l'intelligence artificielle de haut niveau (HLMI) devienne une réalité s'est rapprochée de 13 ans, avec une probabilité de succès de 50 % prévue d'ici 2047. De même, l'horizon de l'automatisation complète du travail (FAOL) – celui d'Elon Les prédictions controversées de Musk ont ​​été décalées 48 ans plus tôt, soit en 2116.

Interrogés sur la capacité de l'IA à correspondre à toutes les capacités humaines, les chercheurs prévoient une probabilité de 50 % d'ici 2047. C'est 13 ans plus tôt que celui d'une enquête similaire réalisée en 2022.

Les personnes interrogées étaient divisées quant à savoir si des progrès plus rapides ou plus lents profiteraient davantage à l’humanité.

Il est intéressant de noter que même si les systèmes d’IA de 2043 devraient être capables de trouver des moyens inattendus d’atteindre leurs objectifs, les chercheurs ont moins confiance dans la capacité humaine à expliquer de telles actions. Cette ambiguïté dans le fonctionnement de la prise de décision en matière d’IA met en évidence la nécessité de donner la priorité à la recherche sur la sécurité de l’IA – un sentiment partagé par 70 % des personnes interrogées.

Les points de vue divergent quant à savoir si l’on pourrait faire confiance à l’IA en 2028 pour expliquer son propre raisonnement.

Il existe également des inquiétudes considérables concernant les risques tels que la désinformation, les inégalités et la surveillance de masse permise par l’IA.

Alors que les chercheurs sont globalement prudemment optimistes, environ 40 % pensent qu’il existe un risque minimum (et non nul) d’extinction de l’humanité à cause de l’IA avancée. Ainsi, même si les robots tueurs ne sont pas imminents, l’étude de l’éthique et de la sécurité de l’IA reste essentielle.