硅谷人工智能整顿:开发者被全面新规震惊无言
准备迎接硅谷人工智能的整顿,新的全面性法规威胁到人工智能的发展。发现这项独裁技术立法中最疯狂的10件事,可能会关闭奥特维窗口。
2025年2月23日

在这篇博客文章中,您将发现一项拟议的 AI 政策的令人震惊的细节,这引起了科技行业的强烈反对。请做好准备,一窥 AI 监管的未来,以及对开发者和创新者的潜在影响。这一深入的分析将让您质疑技术进步与政府控制之间的平衡。
先进 AI 系统的潜在风险
先进 AI 系统的潜在风险
任何公开反对、报告或拒绝参与 AI 法禁止的任何行为的人都可以被视为举报人。即使举报人判断错误,只要他们有合理的善意信念认为 AI 法被违反,他们仍将受到保护。
FAQ
FAQ
主要安全风险被定义为包括2023年国防授权法案中的任何全球灾难性风险,对关键基础设施、国家安全或公共安全的任何严重威胁,以及人工智能系统将建立自我复制的自主代理或以其他方式永久逃离人类控制的风险。
该建议有四个层级的人工智能系统 - 第1层为低关注人工智能,第2层为中等关注人工智能,第3层为高度关注人工智能,第4层为极高度关注人工智能。基准是根据用于训练人工智能系统的计算能力,第1层小于10^24 flops,第2层为10^24到10^26 flops,第3层高于10^26 flops。
对于中等关注人工智能系统,该建议要求开发者运行自动性能基准测试,并在每次训练运行后将结果记录在政府网站上。如果人工智能系统的平均得分超过80%,开发者必须停止训练,并开始将其视为高度关注,申请许可才能继续训练。
该建议包括一种"快速通道"豁免表格,允许那些不存在重大安全风险的人工智能开发者,如自动驾驶汽车、欺诈检测系统和推荐引擎,在不经历完整监管流程的情况下继续他们的工作。
该建议赋予总统和管理员紧急权力,如果发现前沿人工智能存在重大安全风险。这些权力包括暂停许可、发布限制令、要求采取额外的安全措施、对人工智能研发实施暂停,甚至实际上扣押人工智能实验室并删除模型权重。
该建议包括举报人保护条款,规定任何反对、报告或拒绝参与人工智能法案禁止的任何做法的人都可以被视为举报人,即使他们错误地认为某种做法是被禁止的,只要他们有合理的善意信念认为人工智能法案被违反了,他们仍将受到保护。
Discover More
nsfw-ai-video-generator
nsfw-ai-art-generator
ai-hentai-generator
sexy-ai-art-generator
nsfw-ai-image-generator
uncensored-ai-image-generator
erotic-ai
nsfw-character-ai
sexting-ai
ai-girl-generator
janitor-ai
character-ai
adult-chatbot
spicy-ai
nsfw-ai-chatbot
ai-nude-generator
clothes-remover-ai
deepnude-generator
undress-ai
face-swap
ai-eraser
18-plus-ai-image-generator
ai-boobs-generator
flux-pro-1-1