L'IA « dépassera le niveau de compétence expert dans la plupart des domaines » dans 10 ans : OpenAI
Préparez-vous : l’avènement d’une IA super intelligente est proche.
Un article de blog co-écrit par le PDG d’OpenAI, Sam Altman, le président d’OpenAI, Greg Brockman, et le scientifique en chef d’OpenAI, Ilya Sutskever, préviennent que le développement de l’intelligence artificielle nécessite une réglementation stricte pour éviter des scénarios potentiellement catastrophiques.
il est concevable qu’au cours des dix prochaines années, les systèmes d’IA dépasseront les niveaux de compétence des experts dans la plupart des domaines et réaliseront autant d’activités productives que l’une des plus grandes entreprises d’aujourd’hui. »
Faisant écho aux préoccupations soulevées par Altman lors de son récent témoignage devant le Congrès, le trio a décrit trois piliers qu’ils jugeaient cruciaux pour la planification stratégique future.
Le point de départ »
Ensuite, ils ont défendu l’idée d’une « autorité internationale » chargée des inspections du système, de l’application des audits, des tests de conformité aux normes de sécurité et des restrictions de déploiement et de sécurité. Établissant des parallèles avec l’Agence internationale de l’énergie atomique, ils ont suggéré à quoi pourrait ressembler un organisme mondial de réglementation de l’IA.
Enfin, ils ont souligné la nécessité d’une «capacité technique» pour maintenir le contrôle sur la superintelligence et la garder «sûre». Ce que cela implique reste nébuleux, même pour OpenAI, mais le message a mis en garde contre des mesures réglementaires onéreuses telles que des licences et des audits pour les technologies tombant sous la barre de la superintelligence.
Essentiellement, l’idée est de garder la superintelligence alignée sur les intentions de ses formateurs, empêchant un «scénario foom» – une explosion rapide et incontrôlable des capacités de l’IA qui dépasse le contrôle humain.
OpenAI met également en garde contre l’impact potentiellement catastrophique que le développement incontrôlé des modèles d’IA pourrait avoir sur les sociétés futures. D’autres experts dans le domaine ont déjà soulevé des préoccupations similaires, du parrain de l’IA aux fondateurs de sociétés d’IA comme Stability AI et même d’anciens travailleurs d’OpenAI impliqués dans la formation du GPT LLM dans le passé. Cet appel urgent à une approche proactive de la gouvernance et de la réglementation de l’IA a attiré l’attention des régulateurs du monde entier.
Le défi d’une superintelligence « sûre »
ont-ils déclaré.
Les auteurs ont également expliqué que l’espace se développe actuellement à un rythme accéléré, et cela ne va pas changer. « Pour l’arrêter, il faudrait quelque chose comme un régime de surveillance mondial, et même cela n’est pas garanti pour fonctionner », lit-on sur le blog.
» Le monde n’a pas de réponse pour le moment, mais il en a définitivement besoin d’une, une que ChatGPT ne peut pas fournir.