重磅消息:前OpenAI董事会成员揭露Altman的谎言

重磅消息:前OpenAI董事会成员揭露Altman涉嫌谎言,突出了人工智能安全和治理方面的担忧。前董事会成员分享了关于Altman行为的令人震惊的细节,引发了人们对OpenAI自我监管以及为保护人类利益需要外部监督的质疑。

2025年2月21日

party-gif

这篇博客文章为我们提供了一个深入了解OpenAI(世界领先的人工智能研究公司之一)内部运作的窥视。文章采访了前董事会成员,揭示了围绕透明度、安全性以及CEO Sam Altman领导力等令人关切的问题。读者将对强大人工智能系统的发展所面临的挑战和争议有更深入的认识,以及确保这些技术造福全人类的健全治理和监督的重要性。

为什么 OpenAI 的前董事会解雇了 Sam Altman

根据前OpenAI董事会成员Helen Toner的采访,董事会决定解雇CEO Sam Altman是由于几个令人担忧的问题:

  1. 缺乏透明度: Altman多次向董事会隐瞒重要信息,如2022年11月发布ChatGPT以及他对OpenAI创业基金的所有权,尽管他声称是独立董事会成员。

  2. 提供不准确信息: Altman向董事会提供了关于公司安全流程的不准确信息,使董事会无法正确监督和评估这些措施的有效性。

  3. 违反信任: 董事会因Altman的一系列行为模式而失去对他的领导力的信任,这些行为包括说谎、操纵,以及一些高管描述的"心理虐待"。多名高级领导人私下向董事会表达了严重的担忧。

  4. 无法履行使命: 董事会认为Altman不适合领导OpenAI实现其开发惠及全人类的AGI(人工通用智能)系统的使命,因为公司最初的非营利结构本意如此。

最终,董事会认为Altman的行为已经损害了他们提供独立监督并确保公司公益使命仍是首要任务的能力。尽管内部调查发现Altman的行为不足以要求解雇,但董事会仍认为需要更换领导层,这对OpenAI及其使命最有利。

关于 OpenAI 对安全和安全的关注

OpenAI最近的发展引发了人们对该公司安全和安全承诺的重大担忧。根据前董事会成员Helen Toner的说法,CEO Sam Altman的行为存在长期问题,包括:

  • 向董事会隐瞒信息,如在未经事先通知的情况下于2022年11月发布ChatGPT。
  • 未披露他对OpenAI创业基金的所有权,尽管他声称是独立董事会成员。
  • 向董事会提供有关公司安全流程的不准确信息,使董事会难以评估其有效性。

这些指控,加上高级领导人Ilya Sutskever和Dario Amodei的离职,他们援引了对OpenAI过于注重新功能而忽视安全的担忧,描绘了一幅令人不安的画面。

OpenAI内部成立由Altman本人领导的新安全和安全委员会,这很难让人产生信心。这种自我监管的方法,缺乏独立监督,不太可能有效解决前任董事会成员突出的深层次问题。

鉴于OpenAI在人工智能研究和开发领域的领导地位,其缺乏透明度和对安全问题的明显漠视令人担忧。随着该公司推进更先进的人工智能系统,社会风险不容忽视。

总之,关于OpenAI安全和安全重点的担忧是正当的,值得认真关注。可能需要有效的监管和独立监督,以确保强大的人工智能技术的发展符合广大公众利益。

OpenAI 成立了安全和安全委员会

新成立的委员会负责就所有OpenAI项目的关键安全和安全决策提出建议。该委员会将在未来90天内评估并进一步完善OpenAI的流程和保障措施。

该委员会由董事Brett Taylor、Adam D'Angelo、Nicole Seligman和Sam Altman领导。来自OpenAI的技术和政策专家,包括准备工作、安全系统、对齐科学、安全以及首席科学家的负责人,也将参与委员会工作。此外,OpenAI将聘请并咨询其他安全、安全和技术专家,包括前网络安全官员,以支持这项工作。

在90天的审查期结束后,安全和安全委员会将向整个OpenAI董事会分享其建议。在董事会审查后,OpenAI将以符合安全和安全的方式公开分享所采纳建议的更新情况。

这一举措来自于前董事会成员对该公司安全和安全重点的担忧。成立这个内部委员会引发了人们对其独立性和提供有意义监督能力的质疑,因为CEO Sam Altman和其他OpenAI领导层都参与其中。公众将密切关注这个委员会是否会导致OpenAI在人工智能安全方面采取实质性变革。

FAQ