Bombe: Les anciens membres du conseil d'administration d'OpenAI révèlent les mensonges présumés d'Altman

Bombe: les anciens membres du conseil d'administration d'OpenAI révèlent les mensonges présumés d'Altman, mettant en lumière les préoccupations concernant la sécurité et la gouvernance de l'IA. Les anciens membres du conseil d'administration partagent des détails choquants sur la conduite d'Altman, soulevant des questions sur l'autorégulation d'OpenAI et la nécessité d'une surveillance externe pour protéger les intérêts de l'humanité.

16 février 2025

party-gif

Ce billet de blog offre un regard révélateur sur le fonctionnement interne d'OpenAI, l'une des principales sociétés de recherche en IA au monde. Avec des informations provenant d'anciens membres du conseil d'administration, il met en lumière des problèmes préoccupants concernant la transparence, la sécurité et le leadership du PDG Sam Altman. Les lecteurs acquerront une compréhension plus approfondie des défis et des controverses entourant le développement de systèmes d'IA puissants, ainsi que de l'importance d'une gouvernance et d'une supervision solides pour garantir que ces technologies bénéficient à l'humanité dans son ensemble.

Pourquoi le conseil d'administration précédent d'OpenAI a licencié Sam Altman

Selon l'entretien avec Helen Toner, ancienne membre du conseil d'administration d'OpenAI, la décision du conseil de licencier Sam Altman en tant que PDG était due à plusieurs problèmes préoccupants :

  1. Manque de transparence : Altman a à plusieurs reprises dissimulé des informations importantes au conseil, comme le lancement de ChatGPT en novembre 2022 et sa propriété du fonds de démarrage d'OpenAI, malgré ses affirmations d'être un membre indépendant du conseil.

  2. Informations inexactes : Altman a fourni au conseil des informations inexactes sur les processus de sécurité de l'entreprise, rendant impossible pour le conseil de superviser et d'évaluer correctement l'efficacité de ces mesures.

  3. Violation de la confiance : Le conseil a perdu confiance dans le leadership d'Altman en raison d'un comportement incluant le mensonge, la manipulation et ce que certains cadres ont décrit comme un "abus psychologique". Plusieurs cadres supérieurs ont partagé leurs graves préoccupations avec le conseil.

  4. Incapacité à remplir la mission : Le conseil a conclu qu'Altman n'était pas la bonne personne pour diriger OpenAI dans sa mission de développer des systèmes d'AGI (Intelligence Artificielle Générale) qui bénéficient à toute l'humanité, comme l'avait initialement prévu la structure à but non lucratif de l'entreprise.

En fin de compte, le conseil a estimé que le comportement d'Altman avait sapé leur capacité à assurer une surveillance indépendante et à garantir que la mission d'intérêt public de l'entreprise reste la priorité. Malgré une enquête interne concluant que le comportement d'Altman ne justifiait pas son licenciement, le conseil a tout de même estimé qu'un changement de direction était nécessaire pour le meilleur intérêt d'OpenAI et de sa mission.

Préoccupations concernant l'accent mis par OpenAI sur la sécurité et la sûreté

Les récents développements chez OpenAI soulèvent des préoccupations importantes quant à l'engagement de l'entreprise envers la sécurité. Selon l'ancienne membre du conseil d'administration Helen Toner, il y avait des problèmes de longue date avec le comportement du PDG Sam Altman, notamment :

  • Le fait de dissimuler des informations au conseil, comme le lancement de ChatGPT en novembre 2022 sans préavis.
  • Le fait de ne pas divulguer sa propriété du fonds de démarrage d'OpenAI, malgré ses affirmations d'être un membre indépendant du conseil.
  • Le fait de fournir des informations inexactes au conseil sur les processus de sécurité de l'entreprise, rendant difficile pour le conseil d'en évaluer l'efficacité.

Ces allégations, associées aux départs des cadres supérieurs Ilya Sutskever et Dario Amodei, qui ont cité des préoccupations concernant la priorité accordée par OpenAI aux nouvelles fonctionnalités plutôt qu'à la sécurité, brossent un tableau troublant.

La formation d'un nouveau comité de sécurité et de sûreté au sein d'OpenAI, dirigé par Altman lui-même, fait peu pour inspirer la confiance. Cette approche d'autoréglementation, sans surveillance indépendante, ne sera probablement pas efficace pour s'attaquer aux problèmes profondément enracinés soulignés par les anciens membres du conseil.

Le manque de transparence et le mépris apparent pour les préoccupations en matière de sécurité sont particulièrement préoccupants étant donné la position d'OpenAI en tant que leader de la recherche et du développement en IA. Alors que l'entreprise s'oriente vers des systèmes d'IA plus avancés, les risques potentiels pour la société ne peuvent être ignorés.

En conclusion, les préoccupations soulevées concernant l'accent mis par OpenAI sur la sécurité sont bien fondées et méritent une attention sérieuse. Une réglementation efficace et une surveillance indépendante peuvent être nécessaires pour s'assurer que le développement de technologies d'IA puissantes soit aligné avec l'intérêt public plus large.

OpenAI forme un comité de sécurité et de sûreté

Le nouveau comité est chargé de faire des recommandations sur les décisions critiques en matière de sécurité et de sûreté pour tous les projets d'OpenAI. Le comité évaluera et développera davantage les processus et les garanties d'OpenAI au cours des 90 prochains jours.

Le comité est dirigé par les administrateurs Brett Taylor, Adam D'Angelo, Nicole Seligman et Sam Altman. Des experts techniques et politiques d'OpenAI, notamment les responsables de la préparation, des systèmes de sécurité, de la science de l'alignement, de la sécurité et le scientifique en chef, feront également partie du comité. De plus, OpenAI retiendra et consultera d'autres experts en sécurité, en sûreté et techniques pour soutenir ce travail, y compris d'anciens responsables de la cybersécurité.

Après la période d'examen de 90 jours, le comité de sécurité et de sûreté partagera ses recommandations avec l'ensemble du conseil d'administration d'OpenAI. Après l'examen du conseil, OpenAI partagera publiquement une mise à jour sur les recommandations adoptées, d'une manière compatible avec la sécurité et la sûreté.

Cette initiative d'OpenAI intervient au milieu des préoccupations soulevées par les anciens membres du conseil concernant la priorité accordée par l'entreprise à la sécurité. La formation de ce comité interne soulève des questions sur son indépendance et sa capacité à fournir une surveillance significative, étant donné l'implication du PDG Sam Altman et d'autres dirigeants d'OpenAI. Le public suivra de près pour voir si ce comité entraîne des changements substantiels dans l'approche d'OpenAI en matière de sécurité de l'IA.

FAQ