tgje-50-who-is-responsible-for-ai-verdicts-pentagon-case

谁来为AI的裁定负责?丨从Anthropic拒绝五角大楼事件,看裁定权的价值观底线

谁来为AI的裁定负责?丨从Anthropic拒绝五角大楼事件,看裁定权的价值观底线 2026年2月27日,下午5点01分。 截止时间到了。 Anthropic没有移除那两条限制。 特朗普随即下令所有联邦机构立即停止使用Anthropic的技术。国防部长Hegseth将Anthropic列为"供应链国家安全风险"——这个指定过去只用于华为这类外国企业,从未用于美国本土公司。一份价值2亿美元的合同,就此终止。 ...

2026年3月4日 · 6 分钟 · 约 2787 字 · 塔迪Tardi
tgje-30-ai-judges-without-adjudication

为什么 AI 系统被设计成“会判断,但不裁定”?丨塔迪GEO判断工程

为什么 AI 系统被设计成“会判断,但不裁定”?丨塔迪GEO判断工程 很多人对 AI 系统都有一个朴素期待: 只要模型足够聪明, 只要判断足够准确, 系统自然就会给出裁定。 但现实恰恰相反。 判断能力在持续增强, 判断结果在不断产生, 裁定却始终缺席。 这并不是一个暂时现象, 也不是某一代系统的能力短板, 而是一个反复出现的结构结果。 ...

2026年2月14日 · 4 分钟 · 约 1784 字 · 塔迪Tardi
tgje-29-adjudication-requires-responsibility

裁定不是能力问题,而是责任问题 - 说的是AI也是我们自己丨塔迪GEO判断工程

裁定不是能力问题,而是责任问题 - 说的是AI也是我们自己丨塔迪GEO判断工程 当裁定迟迟没有发生时, 人们最常给出的解释,几乎总是同一个方向: 判断还不够好。 模型还不够成熟。 信息还不够充分。 只要再多判断一点, 只要再更聪明一点, 裁定自然就会出现。 这个推断听起来合理, 却解释不了一个已经反复出现的现实: 判断已经发生,而且在持续发生, 裁定却依然缺席。 ...

2026年2月13日 · 4 分钟 · 约 1812 字 · 塔迪Tardi