Anthropic 对峙五角大楼:AI 安全底线之战

Yaqin Hei··10分钟阅读
Anthropic 对峙五角大楼:AI 安全底线之战

你每天用 Claude 写代码、做 code review、debug,但你知道这个工具的母公司正在和美国国防部正面对峙吗?

Anthropic CEO Dario Amodei 刚刚公开拒绝了五角大楼的最后通牒——宁可丢掉 2 亿美元的合同,也不让 AI 被用于自主武器和大规模监控。这场对峙的走向,可能直接影响你每天打开的那个 AI 编程助手还能不能继续用。

以下是这场对峙的完整还原,以及它对每一个 AI 开发者意味着什么。

一、发生了什么:60 秒看懂这场对峙

事情的经过不复杂,但每一步都够戏剧性。

2025 年 7 月,Anthropic 和美国国防部签署了一份价值 2 亿美元的合同。Anthropic 成为第一家将 AI 模型部署到军方保密网络中的公司。注意,这不是什么象征性的握手合作——Claude 被直接塞进了军方的机密任务工作流里。

2026 年 2 月,事情炸了。

美军在一次抓捕委内瑞拉前总统马杜罗的行动中用上了 Claude。怎么接入的?通过 Palantir——没错,就是那个大数据军事承包商。Anthropic 知道后第一反应是质问国防部:你们拿我们的模型干了什么?

五角大楼的反应极其不满。军方认为,这种事后审查"完全不具备可行性"。

国防部长 Pete Hegseth 直接下了最后通牒:周五之前,要么同意让军方不受限制地使用 Claude,要么失去所有政府合同。

更狠的是,五角大楼还祭出了终极武器——威胁援引冷战时期的《国防生产法》(DPA)。这个法案原本用于战时物资调配,如果启动,政府可以强制 Anthropic 为军方定制无安全护栏的模型版本。

Dario Amodei 的回应只有一句话:"我们出于良知不能同意。"

事件时间线

二、两条底线在争什么:技术人的翻译

"AI 安全"这四个字听起来很抽象。但 Anthropic 画的这两条线,用工程师的语言翻译一下,其实非常具体。

底线 1:拒绝大规模国内监控

想象一下这个场景:Claude 被接入一个政府系统,这个系统可以实时分析你的社交媒体、通讯记录、位置数据。不是针对某个犯罪嫌疑人的定向调查,而是对所有公民的批量处理。

用咱们熟悉的话来说:这相当于给一个 API 直接上了 admin:* 权限——没有 audit log、没有 rate limit、没有 scope 限制。一个裸奔的 God Mode。

Anthropic 的立场是:这种不加区分的大规模部署,与民主社会的基本原则不兼容。

底线 2:拒绝完全自主武器

Amodei 给出了一个极其精准的论证:

"我们军事结构中的宪法保护,依赖于有人会拒绝执行非法命令的理念。完全自主武器无法做出这样的区分。"

翻译成工程师语言:这是一个没有 human-in-the-loop 的生产环境部署问题

在座的都知道,关键系统跳过人工审核意味着什么。部署一个没有人类介入就能自主开火的 AI 系统,说白了就是把一个没经过充分测试、不可解释的模型直接推上 prod——只不过这个"生产环境"挂掉的代价不是 500 报错,是人命。

Anthropic 自己也承认,Claude 的可靠性不足以避免潜在的致命错误——这可能导致事态意外升级或任务失败。

有意思的是,五角大楼同时对 Anthropic 使用了两种威胁:一种把它列为"安全风险",另一种却说 Claude 是"国家安全关键"。Amodei 指出,这两个说法本质矛盾

两条底线概念图

三、AI 公司的灵魂拷问:谁说 Yes,谁说 No

这场对峙不是孤立事件。如果把四家主要 AI 公司摆在一起看,你会看到一幅非常有趣的行业分裂图。

公司军方合作态度具体行动结果
Anthropic有条件合作坚持两条底线,拒绝最后通牒面临合同损失和 DPA 威胁
xAI (Grok)完全接受同意"所有合法目的"不受限使用立即获得机密系统准入
OpenAI模糊地带今年初取消了军事用途禁令持有国防部合同,边界待定
Google内部分裂DeepMind 员工致信要求设立"红线"管理层尚未明确回应

说到 OpenAI,值得展开讲讲。2025 年底 OpenAI 拿下了五角大楼一份价值 2 亿美元的合同,并悄悄把使用政策里的"禁止军事用途"条款改成了"允许防御性国家安全应用"。ChatGPT 通过 GenAI.mil 平台被整合进军方的非保密网络。换句话说,OpenAI 的态度是:我不画红线,具体怎么用咱们再谈。

最绝的是时间节点。Amodei 在五角大楼被施压的同一天,马斯克的 xAI 已经签好了协议——Grok 直接进驻机密系统,军方要什么条款全都 OK。

这就是坚持底线的商业代价。当你的竞争对手愿意说 Yes,你的 No 不只是一种道德选择,更是一种商业风险。

但反过来看,共和党参议员 Thom Tillis 说了一句意味深长的话:"Anthropic 正在尽力帮助我们避免自己犯错。"民主党参议员 Mark Warner 则表示他对五角大楼"霸凌一家领先的美国公司"感到"深感不安"。

当两党都觉得五角大楼做过头了,这件事就不仅仅是一家公司的选择,而是整个行业的十字路口。

四家公司立场对比

四、对开发者意味着什么

你可能觉得这是大公司和政府之间的博弈,跟自己没什么关系。但仔细想想,它和你每天的工作有三层联系。

第一,工具选择即价值选择。

你选用的 AI 工具,背后公司的伦理立场正在变成一个实际的产品风险。如果 Anthropic 因为这场对峙被列为"供应链风险",使用 Claude 的企业可能面临合规压力。反过来,如果你的公司坚持不使用缺乏安全护栏的 AI 工具,你的选择范围可能会缩小。

第二,你的代码的终点你控制不了。

想想看:你用 Claude Code 重构一个 React 组件,军方用 Claude 分析一次军事行动的情报——在模型眼里,这俩事儿没有任何区别,都只是不同的 prompt。当你的编程助手和军事应用跑在同一个模型上,"我只是个写代码的"这话还说得那么轻松吗?

第三,开源 vs 闭源有了新维度。

过去我们讨论开源主要看代码是否公开。Anthropic 事件给这个讨论增加了一个新维度:使用权的控制。一个闭源模型的公司可以拒绝特定的使用场景,但开源模型一旦发布就失去了控制权。这到底是好事还是坏事?

开发者社区对这件事的反应很分裂。HN 上 740+ 条评论里,几种声音特别有代表性:

"如果五角大楼真的援引 DPA 强制一家公司交出技术,这将是对第一修正案的严重挑战。代码是言论自由。" —— HN 高赞评论

"我在 Anthropic 工作。我们很多人入职就是因为这家公司愿意在安全问题上画线。如果这条线被抹掉,你会看到大规模离职。" —— 匿名 Anthropic 员工

也有不少人持反对意见,认为 Anthropic 拿了 2 亿合同又挑三拣四是"道德表演",军方才是正当客户。还有一派纯技术视角:不管你怎么限制 API 调用,军方拿到开源模型照样能用——闭源限制本质上是安全剧场。

作为开发者,你至少可以做这些事:了解你常用的 AI 工具背后公司的使用政策;关注 AI 治理的政策动态;在技术社区参与讨论,而不是假装这些事和技术人无关。

开发者决策树

五、技术中立是个伪命题

从曼哈顿计划的物理学家,到 Google "Don't Be Evil" 的消亡,历史反复证明同一件事:技术从来不是中立的。

构建工具的人,对工具的使用负有某种程度的责任。这不是法律问题,而是工程伦理问题。Anthropic 的选择,本质上是在回答一个古老的问题:如果你制造的锤子被用来伤人,你有没有责任?

在 AI 时代,这个问题比以往更尖锐。因为 AI 不是锤子——它能自主行动、自主决策,而且它的能力每个月都在指数级增长。锤子不会变得越来越聪明,但 AI 会。

留给每个开发者的思考:如果你构建的系统被用于你不认同的目的,你会怎么做?

Anthropic 给出了它的答案。你的呢?


参考资料


作为开发者,你怎么看 AI 工具的军事化使用? 你会因为一家公司的伦理立场而选择或放弃它的产品吗?欢迎在评论区聊聊你的看法。

Subscribe for updates

Get the latest AI engineering posts delivered to your inbox.

评论