📌 TL;DR: 群里讨论吃什么,来了一个AI助手,分析了所有人的偏好和附近餐厅的数据,最后说:推荐以下三个选项,取决于大家的优先级排序。问题没有解决。

判断工程要解决的,就是这件事。不是让AI更聪明,而是把裁定设计进系统:推理层交给AI,判断层给定权重结构,裁定层明确触发条件和后果归属——到该发生的时候,裁定作为系统行为,直接发生。

人类靠痛感裁定,组织靠危机裁定。这两种机制都存在,但都被动、代价高。AI什么都没有,所以需要人工设置临界点。

这个系列从一个群聊小事走到这里,想说的只有一件事:裁定不会自动发生,它需要被认真设计。

判断工程:让裁定真正发生丨当AI负责推理判断,系统负责裁定权

回到最开始那个场景。

群里问今晚吃什么。二十几条消息,半小时讨论,最后谁也没决定,各自点了外卖,散伙。

现在假设群里有一个AI助手,它实时跟进了整个讨论,分析了所有人的偏好,对比了附近餐厅的评分、距离、等位时间,甚至考虑了昨天有人说想吃清淡的这个细节。

然后它说:根据以上综合分析,推荐选项有以下三个,最终决定取决于大家的优先级排序。

问题没有解决。


NotebookLM的音视频概览,解读的比较通俗易懂,对于时间比较紧张的读者朋友,可以听听,会有启发。



我们走过的三层问题

前三篇,我们沿着同一条线索走下来。

个人层面:不裁定是无外力约束时的最优选择。人类靠痛感临界点触发裁定,被逼到一定程度才会决定。

组织层面:不裁定被制度化了。共识神话、委员会文化、无限对齐循环——组织发明了一整套体面的方式来回避裁定。它靠危机和压力作为兜底机制,代价高昂但有效。

AI层面:不裁定是当前系统架构下的稳定状态。没有后果承担,没有外力约束,推理层和裁定层的权责从未被设计分离。更强的模型解决不了这个问题。

三层问题,同一个根源:裁定需要外力,没有外力,不裁定永远是最优解。

人类和组织的外力是自然形成的——痛感、压力、危机。它们低效,代价高,但存在。

AI的外力,需要被设计进去。

这就是判断工程要做的事。


判断工程不是让AI更聪明

这一点需要再强调一次,因为它反直觉。

我们遇到AI系统的问题,第一反应通常是:换个更好的模型,调整提示词,给更多上下文。这些操作针对的是推理质量。

但裁定是一个不同性质的问题。

判断工程不处理AI能不能想清楚,它处理的是:这个判断流,是否被允许继续,在什么条件下必须停止,以及停止之后谁来决定下一步。

换句话说,它不是在优化AI的输出,它是在管理AI判断的边界——进入权、继续权、终止权,以及从判断到执行的触发条件。


三层分离:判断工程的核心结构

判断工程建立在一个清晰的结构分离之上:

推理层 → 判断层 → 裁定层

这三层不是同一件事,不应该由同一个角色混合承担,也不能假设它们会自然衔接。

推理层:AI负责。 给定问题,生成分析,呈现可能性,评估各路径的条件与后果。这是AI最擅长的部分,也是它应该被充分使用的地方。推理层没有边界限制——越深入越好,越全面越好。

判断层:AI负责,但有结构约束。 在推理结果的基础上,形成判断意见——不是列举所有选项,而是基于给定的价值权重和优先级,指向一个方向。判断层需要预先设定权重结构:什么目标优先,什么风险可接受,什么条件下哪个路径更优。没有权重结构,判断层就会退化回推理层,重新变成"以下是几种可能性"。

裁定层:系统负责。 这是判断工程最核心的设计位置。裁定层不由AI单独承担,也不默认由人类随时介入——它是一个被明确设计的系统结构,回答三个问题:

  • 这个判断,是否被允许继续?
  • 这个判断,是否应该停止?
  • 这个判断,是否可以进入执行?

裁定层的存在,让整个判断流有了闭合点。没有裁定层,判断可以无限延伸,永远不走到执行。


裁定层需要什么条件才能工作

裁定不会凭空发生。它需要三个前提结构:

① 后果归属 裁定必须有一个承担后果的主体。在判断工程的设计里,这不是AI,也不一定是某个具体的人——但它必须被明确指定。谁的名字在裁定结果旁边,谁就是后果归属方。没有归属,裁定就是悬空的,执行就没有真正的起点。

② 外力约束 回到核心命题:没有外力,不裁定是最优解。裁定层的设计必须包含触发裁定的外力机制——时间约束(到某个节点必须裁定)、条件约束(满足某个条件自动触发)、或代价约束(继续不裁定会产生可见的系统成本)。至少有一种外力存在,裁定才会在正确的时机发生,而不是等待某人某天自发启动。

③ 适用条件的预判 并不是所有判断都需要裁定层的介入。判断工程明确了四种情况,当任意一种成立,裁定层成为必要结构:不可逆后果(执行之后无法撤回)、责任归属要求(需要明确谁对结果负责)、组织级复用(这个判断会被反复使用,需要稳定的裁定机制)、执行触发(判断结果会直接启动后续行动)。

不满足这四个条件的判断,可以停留在推理层和判断层,不需要裁定层介入。这是判断工程的边界声明——它不是要把所有AI交互都工程化,它只处理那些裁定必须发生的场景。


人工设置临界点

前三篇里,我们反复提到一个概念:临界点。

人类在痛感临界点裁定,组织在危机临界点裁定。临界点是触发裁定的压力阈值——当不裁定的成本超过裁定的风险代价,裁定自然发生。

判断工程的核心动作,就是为AI系统人工设置这个临界点

不等痛感积累,不等危机爆发。在系统设计阶段,就把裁定条件写进去:什么情况下判断流必须停止,什么情况下必须进入执行,什么情况下必须上升到人类裁定,什么情况下系统可以自主裁定。

这些条件一旦被触发,裁定就会发生——不依赖于某个人足够勇敢,不依赖于压力足够大,不依赖于AI某天突然变得更有担当。

裁定作为一个系统行为,在它应该发生的时候,发生。


回到那个群聊场景

现在重新来过。

群里有一个经过判断工程设计的AI助手。它同样分析了所有人的偏好,对比了餐厅数据,考虑了昨天有人说想吃清淡的细节。

但这次,系统里预先设定了权重结构:优先满足有饮食限制的成员,距离在步行范围内,等位时间不超过二十分钟。

同时,系统里有一个裁定触发条件:讨论超过十五分钟且未达成结论,自动进入裁定流程。

AI给出判断意见:根据设定条件,推荐A餐厅。

然后,裁定层的问题浮现:这个判断,是否进入执行?

如果群组预先授权了AI在此类场景下的裁定权——它直接输出:今晚去A餐厅,七点,已预约。

如果裁定权保留在人类——它把判断意见推送给指定的裁定者,等待一个明确的确认或否决,而不是把问题重新抛回给所有人。

两种情况里,裁定都发生了。不是因为有人足够果断,是因为系统被设计成了这样。


这个系列想说的,就是这件事

我们花了四篇文章,从一个群里吃饭的小事,走到了一个系统设计的命题。

不是因为AI不够聪明,不是因为人类不够努力,不是因为组织缺乏执行力。

而是因为裁定这件事,需要被认真对待——它不会自动发生,它需要后果归属、外力约束、权责分离,需要有人把它设计进系统。

推理可以无限延伸。判断可以无限优化。

但裁定,必须发生。

判断工程,就是让这件事真正发生的工程结构。

一句话总结

判断工程不是让AI更聪明,而是在系统层面明确分离推理、判断、裁定三层权责,为裁定设置后果归属、外力约束和触发条件——人工制造那个临界点,让裁定作为一个系统行为,在它应该发生的时候,不依赖于任何人足够勇敢或压力足够大,直接发生。


我是「AioGeoLab」主理人塔迪Tardi,AioGeoLab是深度洞察AI第一性原理和应用实践的前瞻性研究实验室,目前有两个主要研究方向:
塔迪GEO判断工程」是基于GEO的价值SEO化,在AI从“说”到“做”的重要跃迁阶段,试图回答,如何让AI敢于行动、不因为责任问题而畏手畏脚,而做的一个前沿研究项目。
塔迪硅基禅心」是传统东方智慧、未来AI前沿、当下应用实践,深层共鸣的探索。不是用AI解读经典,也不是用经典指导AI。 这是一场跨越2500年的对话,在算法与古老智慧之间,照见意识、智能与存在的本质。
塔迪的微信 - tardyai2025