📌 TL;DR: 2026年2月27日,截止时间到了。Anthropic没有移除那两条限制——不得用于大规模国内监控,不得用于没有人类参与的完全自主武器系统。特朗普下令停止使用Anthropic技术,2亿美元合同终止,Anthropic被列为国家安全风险。 第二天,OpenAI与五角大楼签署协议。协议里包含了完全相同的两条限制。五角大楼前一天还在因为这两条惩罚Anthropic,第二天接受了同样的条件。 这个结局说明的不是谁赢了。而是:当一家公司用真实的商业代价为某个原则支付账单,这个原则就从表态变成了有成本支撑的边界。 判断工程的立场不在军事伦理上,而在结构上:在不可逆后果的场景里,人类必须真实地参与裁定节点——不只因为AI不够可靠,更因为没有人类在场,责任就没有地方落。责任不会消失,它只会漂移。判断工程要做的,是在它漂移之前把它锚定。

谁来为AI的裁定负责?丨从Anthropic拒绝五角大楼事件,看裁定权的价值观底线

2026年2月27日,下午5点01分。

截止时间到了。

Anthropic没有移除那两条限制。

特朗普随即下令所有联邦机构立即停止使用Anthropic的技术。国防部长Hegseth将Anthropic列为"供应链国家安全风险"——这个指定过去只用于华为这类外国企业,从未用于美国本土公司。一份价值2亿美元的合同,就此终止。

Anthropic坚守的那两条限制,只有两条:

不得用于对美国公民的大规模国内监控。 不得用于没有人类参与决策链的完全自主武器系统。

这不是一篇关于Anthropic的文章。

这是一篇关于裁定权的底线是什么,以及谁有权划定这条线的文章。


NotebookLM的音视频概览,解读的比较通俗易懂,对于时间比较紧张的读者朋友,可以听听,会有启发。



争议的核心:裁定权属于谁

五角大楼的立场表述得非常清楚。

一位五角大楼高级官员说:“合法性是五角大楼作为终端用户的责任。“换句话说:什么是合法的军事行动,是军方的决定,不是AI公司的决定。一家承包商无权决定其技术如何被使用。

这个立场在传统承包逻辑里是自洽的:供应商提供工具,客户决定用途,合法性由客户负责。

但Anthropic指向了一个不同的问题。

Amodei说,Anthropic理解军事决策权在五角大楼而非私人公司。但"在极少数情况下,我们相信AI可能会破坏而非捍卫民主价值观。“他还说,大规模监控和自主武器是"简单地超出了当今技术能够安全可靠地完成的范围”。

两个论点叠加:

第一个是技术判断:当前AI模型还不够可靠,用于完全自主的致命决策会危及平民和士兵。这是工程评估,不是价值观声明。

第二个是价值观立场:有些用途,无论技术是否可靠,都应该保留人类在决策链里。

争议的核心不是合法性,而是:当AI系统被用于不可逆的致命裁定,是否应该"人类必须在场”?


自主武器的裁定问题,是所有AI责任问题的极端版本

在贷款审批场景里,AI做出错误裁定,后果是有人被错误拒绝——损失真实但可以补救。

在自主武器场景里,AI做出错误裁定,后果是人死亡——没有撤销键。

这是不可逆程度的绝对顶端。

一个人类的错误产生人类的问责。一个AI的错误产生人类的伤亡,但没有人类的问责。这是现有法律框架无法填补的空缺。

指挥官授权了一个五角大楼批准的工具。开发这个工具的公司被命令移除安全限制。要求不受限制访问的国防部长会说这是合法用途。AI无法接受军事审判,无法被监禁,没有后果的概念。

责任链,在这里彻底断裂。

这正是Anthropic坚持"人类必须在决策链里"这一条的根本原因——不只是道德立场,而是:没有人类在裁定节点上,就没有任何主体能够真正为后果负责。

裁定必须发生,而且裁定必须有人类在场。不只是因为AI不够可靠,更因为只有这样,责任才有地方落。


一个结局值得被认真对待

周六,轰炸开始了。

就在同一天,OpenAI与五角大楼签署了协议。

Altman宣布该协议包含Anthropic一直要求的那两条限制。五角大楼接受了OpenAI提出的条件——而就在前一天,它还因为同样的条件惩罚了Anthropic。

这个结局很难被简单地解读为任何一方的胜利。

Anthropic失去了$2亿的合同,被列为国家安全风险,承受了来自最高权力的公开指责。这是真实的代价,不是象征性的。

但那两条限制——人类必须在致命裁定的决策链里——最终被写进了继任合同。

不是因为五角大楼改变了立场,而是因为:当一家公司用自己的商业利益为某个原则支付了代价,这个原则就不再只是表态,它变成了一条有成本支撑的边界。


判断工程的立场

这里需要说清楚判断工程在这个问题上的具体主张。

判断工程不在军事伦理和国家安全政策上表态——那些问题超出了一个工程框架的边界。

判断工程的主张是技术性的,也是结构性的:

在不可逆后果的场景里,裁定层必须包含人类。

不是"系统可以在必要时通知人类”,不是"人类在名义上拥有最终裁定权",而是人类真实地参与在每一个不可逆裁定的触发点上。

Anthropic的立场里有一个重要的认知值得提取:就像自动驾驶汽车在某些场景下已经比人类司机更安全,战斗无人机有一天可能比人类操作员更精准。但模型还没有达到那个门槛,过早部署可能危及平民或友军。

这个表述揭示了一件事:人类在裁定链里,不是永久的必要条件,而是当前技术可靠性下的工程要求。 当可靠性真正达到门槛,这个要求可以被重新讨论。但在那之前,它必须被坚守。

这不是AI公司在告诉军方怎么打仗。这是工程师在说:这个工具现在还不能安全地独立做出这类决定,所以人类必须在场。


责任链的设计,从裁定节点开始

五角大楼事件是极端场景。大多数AI系统处理的是贷款审批、内容推荐、客服、医疗辅助——不是战场决策。

但极端场景把结构性问题照得最清楚:

当AI系统产生不可逆后果,当责任链断裂,当没有人真正为裁定负责——我们看到的不是技术失控,而是系统设计的失败。

责任链的设计,从裁定节点开始。

每一个会产生不可逆后果的节点,需要三件事:明确谁有权在这个节点做出裁定,确保这个裁定权的行使是真实的而非名义上的,记录裁定的依据和后果归属。

这不保证裁定的结果是正确的。但它保证了责任有地方落——而不是在系统的每个节点之间漂移,最终漂到没有人能抓住的地方。

责任不会消失。它只会漂移。

判断工程要做的,是在它漂移之前,把它锚定在正确的节点上。


一句话总结

Anthropic因拒绝移除"不得用于完全自主武器系统"这一条限制,被特朗普政府列为国家安全风险、失去2亿美元合同——但第二天OpenAI与五角大楼签署的新合同里,包含了完全相同的两条限制;这个结局说明的不是谁赢了,而是当一家公司用商业代价为某个原则付账,这个原则就从表态变成了有成本支撑的边界,而这条边界的本质是:在不可逆的致命裁定里,人类必须在场,不只是因为AI不够可靠,而是因为没有人类在裁定节点上,责任就没有地方落。


我是「AioGeoLab」主理人塔迪Tardi,AioGeoLab是深度洞察AI第一性原理和应用实践的前瞻性研究实验室,目前有两个主要研究方向:
塔迪GEO判断工程」是基于GEO的价值SEO化,在AI从“说”到“做”的重要跃迁阶段,试图回答,如何让AI敢于行动、不因为责任问题而畏手畏脚,而做的一个前沿研究项目。
塔迪硅基禅心」是传统东方智慧、未来AI前沿、当下应用实践,深层共鸣的探索。不是用AI解读经典,也不是用经典指导AI。 这是一场跨越2500年的对话,在算法与古老智慧之间,照见意识、智能与存在的本质。
塔迪的微信 - tardyai2025