폭탄 발언: 전 OpenAI 이사회 멤버들이 알트만의 거짓말을 폭로하다

폭탄 발언: 전 OpenAI 이사회 멤버들이 Altman의 거짓말을 폭로하며, AI 안전과 거버넌스에 대한 우려를 부각시켰습니다. 전 이사회 멤버들은 Altman의 행동에 대한 충격적인 세부 사항을 공개하며, OpenAI의 자율 규제와 인류의 이익을 보호하기 위한 외부 감독의 필요성에 대한 의문을 제기했습니다.

2025년 2월 16일

party-gif

이 블로그 게시물은 세계 최고의 AI 연구 기업 중 하나인 OpenAI의 내부 운영에 대한 심도 있는 조명을 제공합니다. 전 이사회 멤버들의 통찰력을 담고 있어, 투명성, 안전성, CEO Sam Altman의 리더십 등 우려되는 문제들을 조명합니다. 독자들은 강력한 AI 시스템 개발과 관련된 과제와 논란, 그리고 이러한 기술이 인류 전체에 이롭게 작용하도록 하는 데 있어 견고한 거버넌스와 감독의 중요성에 대해 깊이 이해하게 될 것입니다.

OpenAI 이사회가 Sam Altman을 해고한 이유

헬렌 토너 전 OpenAI 이사회 위원과의 인터뷰에 따르면, 이사회가 샘 알트만 CEO를 해임한 이유는 다음과 같은 우려스러운 문제들 때문이었습니다:

  1. 투명성 부족: 알트만은 2022년 11월 ChatGPT 출시와 OpenAI 스타트업 펀드에 대한 자신의 소유권 등 중요한 정보를 이사회에 반복적으로 숨겼습니다. 그는 독립 이사회 위원이라고 주장했습니다.

  2. 부정확한 정보: 알트만은 회사의 안전 프로세스에 대한 부정확한 정보를 이사회에 제공했습니다. 이로 인해 이사회가 이러한 조치의 효과성을 적절히 감독하고 평가하는 것이 불가능했습니다.

  3. 신뢰 위반: 이사회는 거짓말, 조종, 일부 임원들이 "심리적 학대"라고 묘사한 행동 패턴으로 인해 알트만의 리더십을 신뢰하지 못했습니다. 여러 고위 간부들이 이사회에 심각한 우려를 비공개로 전했습니다.

  4. 미션 실현 능력 부족: 이사회는 알트만이 인류 전체에 이익을 주는 AGI(인공 일반 지능) 시스템 개발이라는 OpenAI의 본래 비영리 구조 목적을 이끌어갈 적합한 인물이 아니라고 결론 내렸습니다.

결국 이사회는 알트만의 행동이 독립적인 감독과 회사의 공익 미션을 최우선으로 하는 능력을 훼손했다고 판단했습니다. 내부 조사에서 알트만의 행동이 해임을 정당화하지 않는다는 결과가 나왔지만, 이사회는 여전히 OpenAI와 그 미션을 위해 리더십 변화가 필요하다고 믿었습니다.

OpenAI의 안전성 및 보안에 대한 우려

OpenAI의 최근 동향은 회사의 안전과 보안에 대한 헌신에 대해 심각한 우려를 불러일으킵니다. 전 이사회 위원 헬렌 토너에 따르면 CEO 샘 알트만의 행동에는 오래된 문제들이 있었습니다:

  • 2022년 11월 ChatGPT 출시와 같은 중요한 정보를 사전 통지 없이 이사회에 숨겼습니다.
  • 독립 이사회 위원이라고 주장했지만, OpenAI 스타트업 펀드에 대한 자신의 소유권을 공개하지 않았습니다.
  • 회사의 안전 프로세스에 대한 부정확한 정보를 이사회에 제공했습니다. 이로 인해 이사회가 그 효과성을 평가하기 어려웠습니다.

이러한 주장과 더불어 안전보다 새로운 기능을 우선시한다는 우려로 인해 일라이 수츠케버와 다리오 아모데이 등 고위 간부들이 퇴사했습니다.

알트만 자신이 이끄는 새로운 안전 및 보안 위원회 구성은 신뢰를 주지 못합니다. 독립적인 감독 없이 이루어지는 이러한 자기 규제 접근법은 전 이사회 위원들이 지적한 근본적인 문제를 해결하기 어려울 것입니다.

AI 연구 및 개발 분야의 선도 기업인 OpenAI의 투명성 부족과 안전 문제에 대한 무관심은 매우 우려스럽습니다. 회사가 더 발전된 AI 시스템을 추구함에 따라 사회에 미칠 잠재적 위험을 간과해서는 안 됩니다.

결론적으로, OpenAI의 안전과 보안에 대한 초점에 대한 우려는 정당하며 심각하게 다뤄져야 합니다. 강력한 규제와 독립적인 감독이 필요하여, 강력한 AI 기술 개발이 더 넓은 공공의 이익과 부합되도록 해야 합니다.

OpenAI, 안전성 및 보안 위원회 구성

새로운 위원회는 모든 OpenAI 프로젝트에 대한 중요한 안전 및 보안 결정에 대한 권고안을 작성할 책임이 있습니다. 위원회는 향후 90일 동안 OpenAI의 프로세스와 안전장치를 평가하고 더 발전시킬 것입니다.

위원회는 브렛 테일러, 아담 D'앤젤로, 니콜 셀리그만, 샘 알트만 이사들이 이끌고 있습니다. OpenAI의 준비, 안전 시스템, 정렬 과학, 보안, 최고 과학자 등 기술 및 정책 전문가들도 위원회에 참여할 것입니다. 또한 OpenAI는 전 사이버 보안 관리들을 포함한 기타 안전, 보안 및 기술 전문가들을 고용하고 자문을 구할 것입니다.

90일 검토 기간 후, 안전 및 보안 위원회는 권고안을 전체 OpenAI 이사회에 공유할 것입니다. 이사회 검토 후, OpenAI는 안전과 보안에 부합하는 방식으로 채택된 권고안에 대한 업데이트를 대중에게 공개할 것입니다.

OpenAI가 이 내부 위원회를 구성한 것은 전 이사회 위원들이 제기한 안전 및 보안 우선순위에 대한 우려에 따른 것입니다. CEO 샘 알트만과 다른 OpenAI 리더십의 참여로 인해 이 위원회의 독립성과 의미 있는 감독 능력에 대한 의문이 제기됩니다. 대중은 이 위원회가 OpenAI의 AI 안전 접근법에 실질적인 변화를 가져올지 주시할 것입니다.

자주하는 질문