解開OpenAI具有爭議性的AI「安全措施」

解開OpenAI具有爭議性的AI「安全措施」 - 從保護模型權重到硬件簽名,這次深入探討了對開源AI開發和小公司的影響。

2025年2月14日

party-gif

解鎖 AI 的力量,將您的內容轉化為引人入勝的傑作。這篇部落格文章探討了 OpenAI 最新的安全措施,為先進 AI 的未來提供了深思熟慮的觀點,並強調了開源模型的重要性。

AI 加速器的可信计算:保护模型权重和推理数据

像保密计算这样的新兴加密和硬件安全技术,可以通过将可信计算原语扩展到 AI 加速器之外,来保护模型权重和推理数据。这种方法有望实现以下几个关键特性:

  1. 加密认证: GPU 可以进行加密认证,确保模型权重只在授权的硬件上执行。

  2. 加密模型权重: 模型权重可以保持加密状态,直到被加载到 GPU 上,防止未经授权的访问。

  3. 针对 GPU 的加密: GPU 的独特加密身份可以使模型权重和推理数据只能被特定的 GPU 或 GPU 组解密,确保只有授权方能解密。

这种基于硬件的信任模型旨在为先进的 AI 系统提供安全基础,即使软件栈或网络基础设施遭到潜在的损害,模型权重和敏感数据也能得到保护。但这种方法也引发了关于 AI 生态系统准入门槛增加和开放性降低的担忧。

网络和租户隔离:确保弹性离线操作

隔离网络通常被视为一种基本的安全机制,这并非毫无根据。网络隔离是保护关键基础设施控制系统等敏感工作负载的有力手段。相反,我们优先考虑灵活的网络隔离,使 AI 系统能够离线工作,与包括互联网在内的不受信任的网络隔离。

我们描述的网络必须消除可能允许拥有一个租户访问权限的威胁行为者破坏存储在另一个租户中的模型权重的漏洞类别。这可确保即使面临内部威胁或其他安全隐患,数据和工作负载的机密性、完整性和可用性也能得到维护。

通过设计具有强大网络和租户隔离的 AI 基础设施,我们可以使 AI 系统以弹性和离线的方式运行,减少攻击面,保护这些先进 AI 功能的核心 - 敏感模型权重。

数据中心运营和物理安全的创新

对 AI 数据中心的运营和物理安全措施是必要的,以确保能够抵御可能危及数据中心及其工作负载的机密性、完整性和可用性的内部威胁。这包括:

  • 健全的访问控制和监控,以限制和审核对数据中心设施和关键基础设施的物理访问。
  • 全面的视频监控和日志记录,以提供数据中心内所有活动的可见性。
  • 冗余的电力和制冷系统,以在中断情况下维持可用性。
  • 安全的报废和清洁程序,以防止退役硬件造成数据泄露。
  • 防篡改密封和其他物理安全措施,以检测和阻止对基础设施的未经授权修改。
  • 严格的人员安全实践,如背景调查和安全意识培训,以审查和监控数据中心员工。
  • 事故响应和灾难恢复计划,以快速识别、遏制和恢复安全事件或中断。

这些运营和物理安全控制措施协同工作,构建多层防御,保护数据中心环境的机密性和完整性,包括其中的 AI 模型和训练数据。

针对 AI 的审计和合规计划:保护知识产权

由于 AI 开发者需要确保在与基础设施提供商合作时,其知识产权得到保护,因此 AI 基础设施必须经过审核并符合适用的安全标准。现有的标准,如 SOC 2、ISO/IEC 和 NIST 系列,仍将适用。但预计将增加包括解决 AI 系统安全独特挑战的 AI 专用安全和监管标准。

这些 AI 专用的审核和合规计划将有助于确保 AI 相关数据和模型的机密性、完整性和可用性得到维护。通过遵守这些标准,基础设施提供商可以展示他们致力于保护 AI 开发者客户宝贵知识产权的决心。这反过来将培养信任,使 AI 开发者能够专注于创新,知道他们的关键资产得到了保护。

这些 AI 专用标准的制定需要行业、学术界和监管机构之间的合作。这种共同努力将有助于建立保护 AI 生态系统的健全框架,确保 AI 技术的快速进步与适当的安全保障和合规措施并行。

用于网络防御的 AI:对抗威胁的利器

Open AI 认为,AI 将为网络防御带来变革性影响,有望缩小攻击者和防御者之间的差距。全球各地的防御者都在努力吸收和分析大量的安全信号,以检测和应对对其网络的威胁。此外,建立一个复杂的安全计划所需的重大资源,使许多组织无法负担得起有意义的网络防御。

AI 为网络防御者提供了一个机会,并可以改善安全性。AI 可以纳入安全工作流程,以加速安全工程师的工作并减轻他们的负担。在 Open AI 中,他们使用自己的模型来分析高容量和敏感的安全遥测数据,这对于人类分析师团队来说通常是无法企及的。通过利用 AI,防御者可以更有效地检测、调查和应对威胁,从而缩小与复杂攻击者的差距。

Open AI 致力于推进 AI 驱动网络防御的技术水平。他们认为,持续的安全研究,包括探索如何规避他们提出的安全措施,对于应对不断变化的威胁环境至关重要。最终,这些 AI 驱动的安全控制措施必须提供深度防御,因为不存在完美的系统和完美的安全。

弹性、冗余和持续的安全研究

Open AI 承认,他们提出的安全措施可能只是开始,鉴于 AI 安全的快速发展,需要持续的安全研究。他们认识到不存在完美的系统和完美的安全。

为了应对这一点,Open AI 强调需要:

  1. 弹性: 安全控制措施必须提供深度防御,因为随着时间的推移,必然会发现漏洞和缺陷。

  2. 冗余: 依赖单一的安全措施是不够的。需要多层保护来确保系统的整体弹性。

  3. 持续的安全研究: 需要持续的研究来了解如何规避提出的安全措施,以及识别和弥补出现的任何缺口。这包括进攻性和防御性研究,以保持对潜在威胁的领先地位。

Open AI 认识到,AI 安全领域仍处于初期阶段,需要采取主动和适应性的方法来保护先进的 AI 系统。通过embracing弹性、冗余和持续的安全研究,他们旨在保持对不断变化的威胁环境的领先地位,确保 AI 基础设施的安全性。

常問問題