震撼彈:前OpenAI董事會成員揭露Altman的謊言

震撼彈:前OpenAI董事會成員揭露Altman的謊言,突出了對AI安全和治理的擔憂。前董事會成員分享了關於Altman行為的令人震驚的細節,引發了人們對OpenAI自我監管以及需要外部監督來保護人類利益的質疑。

2025年2月16日

party-gif

這篇部落格文章提供了一個深入探究OpenAI(世界領先的人工智慧研究公司之一)內部運作的窺視。文章引述了前董事會成員的見解,揭示了有關透明度、安全性以及CEO Sam Altman領導力等令人關切的問題。讀者將對於開發強大人工智慧系統所面臨的挑戰和爭議,以及確保這些技術造福全人類的穩健治理和監督的重要性,有更深入的了解。

為什麼 OpenAI 的前董事會解雇了 Sam Altman

根據與前OpenAI董事會成員Helen Toner的採訪,董事會決定解雇CEO Sam Altman是由於以下幾個令人擔憂的問題:

  1. 缺乏透明度: Altman多次未向董事會透露重要資訊,例如2022年11月推出ChatGPT以及他擁有OpenAI創業基金的事實,儘管他聲稱是獨立董事會成員。

  2. 提供不準確資訊: Altman向董事會提供了關於公司安全流程的不準確資訊,使董事會無法適當監督和評估這些措施的有效性。

  3. 違反信任: 董事會因Altman的行為模式(包括說謊、操縱以及一些高管描述的"心理虐待")而失去對他的領導力的信任。多名高級主管私下向董事會表達了嚴重的擔憂。

  4. 無法履行使命: 董事會認為Altman不適合領導OpenAI實現其開發惠及全人類的AGI(人工通用智能)系統的使命,因為公司最初的非營利結構本意如此。

最終,董事會認為Altman的行為已經損害了他們提供獨立監督和確保公司公益使命仍是首要任務的能力。儘管內部調查發現Altman的行為並不需要解雇,但董事會仍認為更換領導層對OpenAI及其使命的最佳利益是必要的。

對 OpenAI 安全和安全性重點的擔憂

OpenAI最近的發展引發了人們對該公司安全和安全承諾的重大擔憂。根據前董事會成員Helen Toner的說法,CEO Sam Altman的行為存在長期問題,包括:

  • 未向董事會透露重要資訊,例如在未經事先通知的情況下於2022年11月推出ChatGPT。
  • 未披露他擁有OpenAI創業基金的事實,儘管他聲稱是獨立董事會成員。
  • 向董事會提供有關公司安全流程的不準確資訊,使董事會難以評估其有效性。

這些指控,加上資深領導者Ilya Sutskever和Dario Amodei的離職,他們引述了對OpenAI過於側重新功能而忽視安全的擔憂,描繪出一幅令人不安的畫面。

OpenAI內部成立由Altman本人領導的新安全和安全委員會,很難引起信心。這種自我監管的方法,缺乏獨立監督,不太可能有效解決前任董事會成員突出的深層次問題。

鑒於OpenAI在人工智能研究和開發領域的領導地位,其缺乏透明度和對安全問題的明顯漠視令人擔憂。隨著公司推進更先進的人工智能系統,對社會的潛在風險不容忽視。

總之,有關OpenAI在安全和安全方面的關切是有根據的,值得認真關注。可能需要有效的監管和獨立監督,以確保強大的人工智能技術的發展符合更廣泛的公眾利益。

OpenAI 成立了安全和安全委員會

新成立的委員會負責就所有OpenAI項目的關鍵安全和安全決策提出建議。委員會將在未來90天內評估並進一步完善OpenAI的流程和保障措施。

委員會由董事Brett Taylor、Adam D'Angelo、Nicole Seligman和Sam Altman領導。來自OpenAI的技術和政策專家,包括準備、安全系統、對齊科學、安全以及首席科學家的負責人,也將參與委員會。此外,OpenAI將聘請並諮詢其他安全、安全和技術專家,包括前網絡安全官員,以支持這項工作。

在90天的審查期結束後,安全和安全委員會將與整個OpenAI董事會分享其建議。在董事會審查後,OpenAI將以符合安全和安全的方式公開分享所採納建議的最新情況。

這一舉措是在前董事會成員提出有關公司優先考慮安全和安全問題的擔憂之後做出的。成立這個內部委員會引發了人們對其獨立性和提供有意義監督能力的質疑,因為CEO Sam Altman和其他OpenAI領導層也參與其中。公眾將密切關注這個委員會是否會導致OpenAI在人工智能安全方面採取實質性變革。

常問問題