Bombazo: Ex miembros de la junta directiva de OpenAI revelan las supuestas mentiras de Altman

Bombazo: Ex miembros de la junta directiva de OpenAI revelan supuestas mentiras de Altman, lo que resalta las preocupaciones sobre la seguridad y gobernanza de la IA. Los ex miembros de la junta comparten detalles impactantes sobre la conducta de Altman, lo que plantea interrogantes sobre la autorregulación de OpenAI y la necesidad de una supervisión externa para proteger los intereses de la humanidad.

14 de febrero de 2025

party-gif

Este artículo de blog ofrece una mirada reveladora al funcionamiento interno de OpenAI, una de las principales empresas de investigación de IA del mundo. Con aportes de ex miembros de la junta directiva, arroja luz sobre problemas preocupantes en torno a la transparencia, la seguridad y el liderazgo del CEO Sam Altman. Los lectores obtendrán una comprensión más profunda de los desafíos y controversias que rodean el desarrollo de poderosos sistemas de IA, y la importancia de una gobernanza y supervisión sólidas para garantizar que estas tecnologías beneficien a la humanidad en su conjunto.

Por qué la junta anterior de OpenAI despidió a Sam Altman

Según la entrevista con Helen Toner, ex miembro de la junta directiva de OpenAI, la decisión de la junta de despedir al CEO Sam Altman se debió a varios problemas preocupantes:

  1. Falta de transparencia: Altman retuvo repetidamente información importante de la junta, como el lanzamiento de ChatGPT en noviembre de 2022 y su propiedad del fondo de startups de OpenAI, a pesar de afirmar ser un miembro independiente de la junta.

  2. Información inexacta: Altman proporcionó a la junta información inexacta sobre los procesos de seguridad de la empresa, lo que hizo imposible que la junta supervisara y evaluara adecuadamente la eficacia de estas medidas.

  3. Incumplimiento de confianza: La junta perdió la confianza en el liderazgo de Altman debido a un patrón de comportamiento que incluía mentiras, manipulación y lo que algunos ejecutivos describieron como "abuso psicológico". Varios altos directivos compartieron en privado sus graves preocupaciones con la junta.

  4. Incapacidad de cumplir con la misión: La junta concluyó que Altman no era la persona adecuada para liderar a OpenAI en su misión de desarrollar sistemas de AGI (Inteligencia General Artificial) que beneficien a toda la humanidad, tal como lo había previsto la estructura sin fines de lucro original de la empresa.

En última instancia, la junta consideró que la conducta de Altman había socavado su capacidad para brindar una supervisión independiente y garantizar que la misión de bien público de la empresa siguiera siendo la principal prioridad. A pesar de que una investigación interna determinó que el comportamiento de Altman no justificaba su destitución, la junta aún consideró que un cambio de liderazgo era necesario para el mejor interés de OpenAI y su misión.

Preocupaciones sobre el enfoque de OpenAI en la seguridad y la seguridad

Los recientes acontecimientos en OpenAI plantean importantes preocupaciones sobre el compromiso de la empresa con la seguridad. Según la ex miembro de la junta Helen Toner, hubo problemas de larga data con el comportamiento del CEO Sam Altman, que incluyen:

  • Retener información de la junta, como el lanzamiento de ChatGPT en noviembre de 2022 sin previo aviso.
  • No revelar su propiedad del fondo de startups de OpenAI, a pesar de afirmar ser un miembro independiente de la junta.
  • Proporcionar información inexacta a la junta sobre los procesos de seguridad de la empresa, lo que dificultó que la junta evaluara su eficacia.

Estas acusaciones, junto con las salidas de los altos directivos Ilya Sutskever y Dario Amodei, quienes citaron preocupaciones sobre la priorización de OpenAI de nuevas funciones sobre la seguridad, pintan un panorama preocupante.

La formación de un nuevo comité de Seguridad y Protección dentro de OpenAI, liderado por el propio Altman, hace poco por inspirar confianza. Este enfoque de autorregulación, sin supervisión independiente, es poco probable que sea efectivo para abordar los problemas arraigados destacados por los ex miembros de la junta.

La falta de transparencia y el aparente desprecio por las preocupaciones de seguridad son particularmente preocupantes dada la posición de OpenAI como líder en investigación y desarrollo de IA. A medida que la empresa avanza hacia sistemas de IA más avanzados, los riesgos potenciales para la sociedad no pueden pasarse por alto.

En conclusión, las preocupaciones planteadas sobre el enfoque de OpenAI en la seguridad están bien fundamentadas y merecen una atención seria. Es posible que se necesite una regulación efectiva y una supervisión independiente para garantizar que el desarrollo de tecnologías de IA poderosas esté alineado con el interés público más amplio.

OpenAI forma un comité de seguridad y seguridad

El nuevo comité es responsable de hacer recomendaciones sobre decisiones críticas de Seguridad y Protección para todos los proyectos de OpenAI. El comité evaluará y desarrollará aún más los procesos y salvaguardas de OpenAI durante los próximos 90 días.

El comité está liderado por los directores Brett Taylor, Adam D'Angelo, Nicole Seligman y Sam Altman. También formarán parte del comité expertos técnicos y de políticas de OpenAI, incluidos los responsables de preparación, sistemas de seguridad, ciencia de la alineación, seguridad y el científico jefe. Además, OpenAI contratará y consultará a otros expertos en seguridad, protección y técnicos para apoyar este trabajo, incluidos ex funcionarios de ciberseguridad.

Después del período de revisión de 90 días, el comité de Seguridad y Protección compartirá sus recomendaciones con la junta directiva completa de OpenAI. Después de la revisión de la junta, OpenAI compartirá públicamente una actualización sobre las recomendaciones adoptadas de una manera coherente con la seguridad y la protección.

Esta medida de OpenAI se produce en medio de las preocupaciones planteadas por ex miembros de la junta sobre la priorización de la seguridad y la protección por parte de la empresa. La formación de este comité interno plantea preguntas sobre su independencia y capacidad para brindar una supervisión significativa, dado el involucramiento del CEO Sam Altman y otros líderes de OpenAI. El público estará atento para ver si este comité conduce a cambios sustanciales en el enfoque de OpenAI hacia la seguridad de la IA.

Preguntas más frecuentes