Le conseil d'administration d'OpenAI défend le PDG Sam Altman au milieu des allégations de « culture toxique »
Quelques jours seulement après qu'OpenAI a annoncé la formation de son nouveau comité de sécurité, les anciennes membres du conseil d'administration Helen Toner et Tasha McCauley ont publiquement accusé le PDG Sam Altman de donner la priorité aux profits plutôt qu'au développement responsable de l'IA, de cacher les développements clés au conseil d'administration et de favoriser un environnement toxique dans l'entreprise.
Mais les membres actuels du conseil d'administration d'OpenAI, Bret Taylor et Larry Summers, ont riposté aujourd'hui en défendant vigoureusement Altman, contrecarrant les accusations et affirmant que Toner et McCauley tentaient de rouvrir une affaire close. L’argument s’est déroulé dans deux articles d’opinion publiés dans The Economist.
Les anciens membres du conseil d'administration ont été les premiers à licencier, arguant que le conseil d'administration d'OpenAI était incapable de régner sur son directeur général.
"En novembre dernier, dans le but de sauver cette structure d'autorégulation, le conseil d'administration d'OpenAI a licencié son PDG", ont écrit Toner et McCauley, qui ont joué un rôle dans l'éviction d'Altman l'année dernière, le 26 mai. le devoir du conseil d’administration d’assurer une surveillance indépendante et de protéger la mission d’intérêt public de l’entreprise, nous soutenons l’action du conseil d’administration.
Dans leur réponse publiée, Bret Taylor et Larry Summers, qui ont rejoint OpenAI après le départ de Toner et McCauley de l'entreprise, ont défendu Altman, rejetant les allégations et affirmant son engagement en faveur de la sécurité et de la gouvernance.
"Nous n'acceptons pas les affirmations faites par Mme Toner et Mme McCauley concernant les événements d'OpenAI", ont-ils écrit. "Nous regrettons que Mme Toner continue de revenir sur des questions qui ont été examinées en profondeur par l'examen mené par WilmerHale plutôt que d'aller de l'avant. .»
Bien que Toner et McCauley n'aient pas cité le nouveau comité de sûreté et de sécurité de l'entreprise, leur lettre faisait écho aux inquiétudes selon lesquelles OpenAI ne pourrait pas se contrôler de manière crédible et contrôler son PDG.
« Sur la base de notre expérience, nous pensons que l'autonomie gouvernementale ne peut pas résister de manière fiable à la pression des incitations au profit », ont-ils écrit. « Nous pensons également que les développements depuis son retour dans l'entreprise, y compris sa réintégration au conseil d'administration et le départ des hauts responsables de la sécurité -des talents axés sur les talents - de mauvais augure pour l'expérience OpenAI en matière d'autonomie gouvernementale.
Les anciens membres du conseil d’administration ont déclaré que les « modèles de comportement de longue date » d’Altman ont laissé le conseil d’administration de l’entreprise incapable de superviser correctement « les décisions clés et les protocoles de sécurité internes ». Les collègues actuels d'Altman ont cependant souligné les conclusions d'une étude indépendante sur le conflit commandée par l'entreprise.
"Les conclusions de l'examen ont rejeté l'idée selon laquelle tout type de problème de sécurité de l'IA nécessitait le remplacement de M. Altman", ont-ils écrit, "en fait, WilmerHale a constaté que la décision précédente du conseil d'administration ne découlait pas de préoccupations concernant la sûreté ou la sécurité des produits, le rythme de développement, les finances d'OpenAI ou ses déclarations aux investisseurs, clients ou partenaires commerciaux.
Peut-être plus troublant encore, Toner et McCauley ont également accusé Altman de favoriser une culture d’entreprise empoisonnée.
« Plusieurs hauts dirigeants avaient fait part en privé de leurs graves préoccupations au conseil d'administration, affirmant qu'ils pensaient que M. Altman cultivait « une culture toxique du mensonge » et s'engageait dans un « comportement peut être qualifié de violence psychologique.
Mais Taylor et Summers ont réfuté leurs affirmations, affirmant qu'Altman était tenu en haute estime par ses employés.
"En six mois de contact presque quotidien avec l'entreprise, nous avons trouvé M. Altman très ouvert sur toutes les questions pertinentes et toujours collégial avec son équipe de direction", ont-ils déclaré.
Taylor et Summers ont également déclaré qu'Altman s'était engagé à travailler avec le gouvernement pour atténuer les risques liés au développement de l'IA.
Les échanges publics surviennent au milieu d’une époque turbulente pour OpenAI qui a commencé avec son éviction de courte durée. Ce mois-ci, son ancien responsable de l'alignement a rejoint la société rivale Antropic après avoir porté des accusations similaires contre Altman. Il a dû revenir sur un modèle de voix étonnamment similaire à celui de l'actrice Scarlett Johansson après avoir échoué à obtenir son consentement. L'entreprise a démantelé son équipe de superalignement et il a été révélé que des NDA abusives empêchaient les anciens employés de critiquer l'entreprise.
OpenAI a également conclu des accords avec le ministère de la Défense pour utiliser la technologie GPT pour des applications militaires. Entre-temps, le principal investisseur d'OpenAI, Microsoft, aurait également conclu des accords similaires impliquant ChatGPT.
Les affirmations partagées par Toner et McCauley semblent cohérentes avec les déclarations partagées par d'anciens chercheurs d'OpenAI qui ont quitté l'entreprise, Jan Leike, affirmant qu'« au cours des dernières années, la culture et les processus de sécurité ont pris le pas sur les produits brillants » et que son équipe d’alignement « naviguait contre le vent ».
Taylor et Summers ont partiellement répondu à ces préoccupations dans leur chronique en citant le nouveau comité de sécurité et sa responsabilité « de faire des recommandations à l'ensemble du conseil d'administration sur les questions relatives aux décisions critiques en matière de sécurité et de sûreté pour tous les projets OpenAI ».
Toner a récemment intensifié ses affirmations concernant le manque de transparence d'Altman.
"Pour donner une idée du genre de chose dont je parle, lorsque ChatGPT est sorti en novembre 2022, le conseil d'administration n'a pas été informé à l'avance", a-t-elle révélé sur le podcast TED AI Show plus tôt cette semaine. "Nous avons entendu parler de ChatGPT sur Twitter."
Elle a également déclaré que le conseil d'administration d'OpenAI ne savait pas qu'Altman possédait l'OpenAI Startup Fund, malgré ses affirmations sur un manque de participation financière dans OpenAI. Le fonds a investi des millions collectés auprès de partenaires comme Microsoft dans d'autres activités, à l'insu du conseil d'administration. La propriété d'Altman dans le fonds a pris fin en avril.
OpenAI n'a pas répondu à une demande de commentaire de Decrypt.
Edité par Ryan Ozawa.
Newsletter généralement intelligente
Un voyage hebdomadaire en IA raconté par Gen, un modèle d'IA générative.
