Vitalik Buterin prend le risque de l’intelligence artificielle en contrant l’humanité : « Nem Marte sera sûr »

  • Le créateur d\'Ethereum partage sa vision du tecno-optimisme et reconnait les risques existentiels de l\'intelligence artificielle.
  • Il souligne l\'importance d\'un contrôle humain sur le développement de l\'IA et la nécessité d\'un mouvement axé sur la sécurité.
  • Vitalik Buterin s\'oppose à l\'autoritarisme numérique et encourage une approche décentralisée pour atteindre un avenir meilleur pour l\'humanité.

Deuxième jour (27), le créateur d’Ethereum, Vitalik Buterin, a publié un article dans lequel il partage sa propre vision du « tecno-optimisme », inspiré par Marc Andreessen, qui pense de l’intelligence artificielle (IA) dans son manifeste « Tecno -otimiste” en extérieur. Alors que Buterin était en accord avec la perspective positive d’Andreessen, il a également observé l’importance de l’IA en développement dans l’orientation future de la technologie.
Buterin a reconnu le risque existentiel de l’intelligence artificielle, y compris celui de provoquer l’extinction de la race humaine.

« C’est une affirmation extrême : pour la plupart des événements qui ont eu lieu au cours du premier scénario climatique, une pandémie artificielle ou une guerre nucléaire à l’origine d’une catastrophe, il y a beaucoup de civilisations qui sont restées intactes pour rappeler les pédagogues », a-t-il déclaré.
« Même si un super-intelligent décide de se révolter contre les humains, il peut très bien ne pas être sobre et agir avec l’humanité pour toujours », a déclaré Buterin. « Nem mesmo Marte peut être sûr ».

Buterin est présent pour une étude réalisée en 2022 par AI Impacts, qui dit qu’entre 5% et 10% des participants reconnaissent que les êtres humains sont confrontés à l’extinction de l’IA ou à la fausse personne des êtres humains en contrôle de l’IA, respectivement.
Il dit qu’un mouvement de code ouvert axé sur la sécurité est idéal pour diriger ou développer l’IA, face aux entreprises et aux fonds de capital de risque.
« Nous souhaitons un avenir qui soit à notre époque super-intelligent et « humain » — un avenir où les êtres humains ne sont pas des animaux d’estimation, mais qui doivent garder un contrôle significatif sur le monde — alors il semble que quelque chose comme cela soit option plus naturelle», a-t-il déclaré.

Vitalik Buterin prend le risque de l’intelligence artificielle en contrant l’humanité : « Nem Marte sera sûr »

Ce qui est nécessaire, continue Buterin, est une intention humaine active d’écouter sa direction et son résultat. « La formule de ‘maximiser le profit’ ne leur sera pas automatiquement appliquée », a-t-il déclaré.
O lado bom da tecnologia
Mais je dis que j’adore la technologie parce qu’elle élargit le potentiel humain, en contribuant à l’histoire des innovations, des travaux manuels sur les smartphones.

« Le crédit que ces êtres sont fondamentalement boas et qui élargit le potentiel de l’humanité jusqu’à ce que les planètes et les étoiles soient fondamentalement nés, parce que le crédit que l’humanité est fondamentalement boa », a déclaré Buterin.
Il affirme que, tout en reconnaissant qu’une technologie transformatrice mènera à un avenir plus brillant pour l’humanité, il rejette l’idée que le monde doit être permanent comme aujourd’hui, à moindre coût et un système de santé publique efficace.
« Il y a certains types de technologie qui rendent le monde meilleur en forme que plus fidèle à d’autres types de technologie », a déclaré Buterin.

« Il y a certains types de technologie qui peuvent, se développer, atténuer les impacts négatifs d’autres types de technologie. »
Le contrôle de l’IA
Mais nous vous alertons du développement de l’autoritarisme numérique et des technologies de surveillance utilisées contre ceux qui désapprouvent ou discordent les gouvernements et sont contrôlées par un groupe restreint de technocrates. Il a dit que la plupart des gens préféraient probablement espérer l’avancée de l’IA pendant une décennie pour voir une technologie envoyée monopolisée par un groupe d’entreprises.

« Mon reçu de base est que nos types de technologies opérationnelles permettent à OpenAI d’atteindre plus de 100 millions de clients avec 500 fonctionnaires, ce qui permet également qu’une élite politique de 500 personnes, ou même un conseiller de cinq personnes, garde un moment de fer sur un pays intérieur», a-t-il déclaré.
Buterin a dit qu’il aimait le mouvement d’accélération efficace (également connu sous le nom de « e/acc »), ce qui lui donnait des sentiments contradictoires par rapport à son enthousiasme pour la technologie militaire.
« L’enthousiasme pour la technologie militaire moderne comme une force qui semble vouloir qu’une puissance technologique dominante soit, de forme confiante, un des moments de la plupart des conflits, il y a peu et pas d’avenir », a-t-il déclaré, citant l’idée de que la technologie militaire peut être bonne parce qu’elle est construite et contrôlée par les États-Unis et « les États-Unis sont bons ».

« Sera-t-il et/ou exigera-t-il être un maximaliste américain, en s’appuyant sur tout le présent moral et l’avenir du gouvernement et pas de succès futur dans le pays ? », a-t-il demandé.
Buterin s’oppose à la concession de « pouvoir extrême et opaque » à un petit groupe de personnes qui espèrent qu’ils les utiliseront comme Sabedoria, préférant, à leur tour, une philosophie de « d/acc » — ou la défense, la décentralisation, la démocratie le différentiel. Cette mentalité, deuxièmement, peut s’adapter aux vrais altruistes, libertaires, pluralistes, défenseurs de la blockchain et « punks solaires et lunaires ».

« Le monde qui favorise la défense est un monde meilleur, pour diverses raisons », a déclaré Buterin. « Le premier, il est clair, est le bénéfice direct de la sécurité : moins de personnes sont mortes, moins de valeur économique est détruite, moins de temps est désespéré dans les conflits. »
«Ce qui est le moins apprécié, c’est qu’un monde favorise la défense et le développement des formes de gouvernance plus audacieuses, plus ouvertes et plus respectueuses de la liberté», conclut-il.

Alors qu’il était enthousiasmé par la nécessité de construire et d’accélérer, Buterin a déclaré qu’une société devait se rendre régulièrement pour que nous puissions l’accélérer. Mais je suggère que le XXIème siècle peut être « le siècle crucial » pour l’humanité, où il peut décider du destin de l’humanité pour des millions de personnes.
«Ces problèmes sont des défis», a déclaré Buterin.

« Mais vous êtes prêt à observer et à participer au grand effort collectif de notre espèce pour rencontrer des réponses. »
*Traduit par Gustavo Martins avec l’autorisation de Decrypt.
Que faire pour vendre les mystères du Bitcoin ? Adquira « O Livro de Satoshi », une compilation d’écritures et d’idées de Satoshi Nakamoto
Le message de Vitalik Buterin expose les risques de l’intelligence artificielle à l’encontre de l’humanité : « Nem Marte sera sûr » apparaîtra en premier sur le portail Bitcoin.