L’IA pourrait surpasser les humains en tant qu’« espèce suprême »


L’intelligence artificielle ultra-avancée, si elle n’est pas contrôlée, a de « sérieuses chances » de surpasser les humains pour devenir la prochaine « espèce suprême » de la planète, selon le co-fondateur d’Ethereum, Vitalik Buterin.

Mais cela se résumera à la manière dont les humains pourraient intervenir dans les développements de l’IA, a-t-il déclaré.

co/6lN2fLBUUL

L’IA pourrait surpasser les humains en tant qu’« espèce suprême »

Dans un article de blog du 27 novembre, Buterin, considéré par certains comme un leader d’opinion dans le domaine des crypto-monnaies, a soutenu que l’IA est « fondamentalement différente » des autres inventions récentes – telles que les médias sociaux, la contraception, les avions, les armes à feu, la roue et le presse à imprimer – car l’IA peut créer un nouveau type « d’esprit » qui peut se retourner contre les intérêts humains, ajoutant :

« L’IA est [.] un nouveau type d’esprit qui gagne rapidement en intelligence, et qui a de sérieuses chances de dépasser les facultés mentales des humains et de devenir la nouvelle espèce suprême de la planète.

Buterin a fait valoir que contrairement au changement climatique, à une pandémie d’origine humaine ou à une guerre nucléaire, l’IA superintelligente pourrait potentiellement mettre fin à l’humanité et ne laisser aucun survivant, en particulier si elle finit par considérer les humains comme une menace pour sa propre survie.

« L’une des façons dont un échec de l’IA pourrait aggraver le monde est (presque) la pire possible : elle pourrait littéralement provoquer l’extinction de l’humanité. »

« Même Mars n’est peut-être pas en sécurité », a ajouté Buterin.

Buterin a cité une enquête d’août 2022 menée auprès de plus de 4 270 chercheurs en apprentissage automatique, qui estimait qu’il y avait 5 à 10 % de chances que l’IA tue l’humanité.

Cependant, même si Buterin a souligné que les affirmations de cette nature sont « extrêmes », il existe également des moyens pour les humains de l’emporter.

Interfaces cérébrales et techno-optimisme

Buterin a suggéré d’intégrer des interfaces cerveau-ordinateur (BCI) pour offrir aux humains plus de contrôle sur des formes puissantes de calcul et de cognition basées sur l’IA.

Un BCI est une voie de communication entre l’activité électrique du cerveau et un appareil externe, tel qu’un ordinateur ou un membre robotique.

Cela réduirait la boucle de communication bidirectionnelle entre l’homme et la machine de quelques secondes à quelques millisecondes et, plus important encore, garantirait que les humains conservent un certain degré d’« action significative » sur le monde, a déclaré Buterin.

ethEn rapport: Comment l’IA change la cryptographie  : battage médiatique contre réalité

Buterin a suggéré que cette voie serait « plus sûre » car les humains pourraient être impliqués dans chaque décision prise par la machine IA.

« Nous [can] réduisez l’incitation à confier la responsabilité de planification de haut niveau à l’IA elle-même, et réduisez ainsi le risque que l’IA fasse par elle-même quelque chose qui ne corresponde absolument pas aux valeurs de l’humanité.

Le co-fondateur d’Ethereum a également suggéré une « intention humaine active » d’amener l’IA dans une direction qui profite à l’humanité, car maximiser le profit ne conduit pas toujours l’homme sur la voie la plus souhaitable.

Les êtres humains sont profondément bons.

les humains et nous espérons que bien d’autres à venir :

« Dans deux milliards d’années, si la Terre ou n’importe quelle partie de l’univers recèle encore la beauté de la vie terrestre, ce seront les artifices humains comme les voyages spatiaux et la géo-ingénierie qui auront rendu cela possible. »

Revue : Cas d’utilisation réels de l’IA dans la cryptographie, n° 1 : le meilleur argent pour l’IA est la cryptographie