OpenAI披露更多关于与五角大楼协议细节
AIPress.com.cn报道
3月2日消息,据路透社报道,OpenAI 披露了更多关于与五角大楼协议的细节。
如首席执行官 Sam Altman 自己承认的那样,OpenAI 与国防部达成的协议“确实有些仓促”,“外界观感并不理想”。
此前,在 Anthropic 与五角大楼的谈判于周五破裂后,美国总统唐纳德·特朗普指示联邦机构在为期六个月的过渡期后停止使用 Anthropic 的技术。国防部长皮特·赫格塞斯表示,他已将这家人工智能公司列为“供应链风险”。
随后,OpenAI 迅速宣布已达成协议,将其模型部署到机密环境中。Anthropic 表示,其在完全自主武器或大规模国内监控方面为技术使用划定了红线。
Altman 也表示,OpenAI 设有同样的红线。这自然引发了一些显而易见的问题:OpenAI 是否真正兑现了其保障措施?为什么它能够达成协议,而 Anthropic 却未能成功?
因此,在 OpenAI 高管在『社交媒体』上为协议辩护的同时,公司还发布了一篇博客文章,详细阐述其策略。
文章指出了三个明确的限制领域:大规模国内监控、自主武器系统,以及“高风险自动化决策”(例如“社会信用”系统)。公司称,与其他“削弱或取消安全防护、主要依赖使用政策作为国家安全部署主要保障”的人工智能企业不同,OpenAI 的协议通过“更广泛、多层次的方法”来保护其红线。
博客写道:“我们对安全协议栈保留完全自主权,通过云端部署,由持证的 OpenAI 人员参与流程,并设有强有力的合同保护。这一切都建立在美国法律已有强有力保障之上,并作为补充。”
公司补充称:“我们不清楚 Anthropic 为何未能达成该协议,希望他们以及更多实验室能考虑这一点。”
帖子发布后,Techdirt 的 Mike Masnick 表示,该协议“完全允许国内监控”,因为协议提到收集私人数据将符合行政命令 12333 以及其他相关法律。Masnick 将该行政命令描述为“美国国家安全局通过窃听美国境外通信来掩盖其国内监控活动,即便这些通信包含来自或涉及美国人的信息”。
OpenAI 国家安全合作负责人 Katrina Mulligan 在 LinkedIn 上表示,关于合同条款的讨论往往假设“美国人与利用人工智能进行大规模国内监控或自主武器之间唯一的障碍,是战争部合同中的一条使用政策条款”。
“事实并非如此,”Mulligan 写道,并补充称,“部署架构比合同条款更为关键……通过将部署限制在云端 API,我们可以确保模型无法直接集成到武器系统、传感器或其他作战硬件中。”
Altman 还在『社交平台』 X 上回应了有关该交易的提问。他承认协议推进较为仓促,并引发了强烈反弹——甚至导致 Claude 在周六的苹果 App Store 排名中超过 ChatGPT。
对于为何仍然推进交易,Altman 表示:“我们确实希望缓和局势,而且我们认为这次的协议是好的。如果我们判断正确,这将有助于缓解战争部与行业之间的紧张关系,我们会被视为承担了巨大压力、为行业作出贡献的公司。否则,我们将继续被贴上仓促和不谨慎的标签。”(鞭牛士、AI普瑞斯编译)
(转载自:AI普瑞斯)










