让AI全自主接管业务流之前,先想清楚这件事

YC刚公布了W26批次的名单,199家公司,其中56家被归类为"AI原生服务"——AI端到端完成一项工作,客户负责监督或审批输出结果。这是这批次里占比最大的单一类别。
医疗、法律、供应链、企业后台——这些行业里,Agent正在从"辅助工具"变成"执行主体"。光是医疗赛道,就有牙科诊所的AI前后台、初级医疗的AI员工、自动化医疗账单系统,以及直接处理保险预授权的Agent。
这是一个好消息。这说明Agent落地已经越过了概念期,真实的业务场景在真实地运转。
但有一个问题,藏在这56家公司背后,依旧还没有人在公开场合认真讨论过:
这些Agent出了事,找谁?
不是"怎么解决",是"谁负责"。
* * *NotebookLM的音视频概览,解读的比较通俗易懂,对于时间比较紧张的读者朋友,可以听听,会有启发。
出了事,会发生什么
先描述一个真实的场景。
一家使用AI Agent处理医疗账单的诊所,某天Agent在处理保险索赔时产生了一批错误的编码。错误没有被实时发现,批量提交之后,保险公司拒付,诊所损失了一笔应收款。
最终复盘:
技术团队会说:我们部署的是供应商的Agent,参数是按规范配置的,模型输出我们没法保证每一条都准确。
业务团队会说:我们是按照技术给的工具在走流程,账单最后有人工过了一眼,但我们没有专业背景判断每个编码对不对。
供应商会说:我们的产品准确率达到了合同约定的标准,这批错误在误差范围内,用户需要自行校验高风险输出。
管理层会说:我们有部署审批流程,也有人工审核节点,流程走完之后的结果不应该由管理层承担具体责任。
四方没有一个人在说谎。但加在一起,责任消失了。
这不是某家公司的特殊情况。这是Agent时代一个结构性的问题:Agent的决策链条天然横跨了组织的职能边界,但大多数组织的责任边界,还停留在"工具不会自己做决定"的时代。
为什么这是组织问题,不是技术问题
很多人看到这个场景的第一反应是:那就把技术做得更好,把准确率提上去,误差就小了。
这个思路没错,但它解决的是另一件事。
准确率再高,也不是100%。只要Agent在做真实决策,就会有出错的时候。出错之后,必须有人承担后果——这是任何组织正常运转的基本前提。技术可以把出错的概率压低,但它没有办法把"谁负责"这个问题解决掉。
这就是为什么责任归属是组织问题,不是技术问题。
它不会在Agent翻车的那一刻突然出现,而是在你决定部署Agent的那一天就已经被决定了——只是大多数人没有显式地做过这个决定。
没有显式决定,不代表责任不存在。它只是变成了一笔糊涂账,等着在最糟糕的时机被追究。
责任归属的三个层次
把责任归属想清楚,需要区分三个层次。这三层经常被混在一起,但它们解决的是完全不同的问题。
第一层:授权责任
这个Agent被允许做什么,是谁决定的?
Agent的权限边界——能访问哪些系统、能执行哪些操作、超出什么阈值需要人工介入——这些设定背后有一个隐性的决策者。这个人或这个角色,对"权限划在这里"的决定负责。
Agent在权限范围内出了错,和Agent突破了权限范围造成了损失,是两件性质完全不同的事。前者是执行问题,后者是授权问题。但很多组织在部署的时候,没有明确地把"谁是权限的最终决策人"这件事记录下来。
一旦出事,追问"为什么Agent有权做这件事",得到的答案往往是"这是技术默认配置"或者"之前一直这么用的"——授权责任就这样蒸发了。
第二层:执行责任
Agent在执行过程中产生的错误,来源可以有三种:模型本身的局限、工作流设计的缺陷、输入数据的质量问题。
这三种来源的责任归属,完全不同。
模型问题,通常指向供应商的服务协议和SLA条款。工作流设计问题,指向内部的技术团队或者实施顾问。输入数据问题,指向数据的提供方——可能是另一个业务部门,也可能是外部系统。
但大多数真实的错误,是三者叠加的结果,很难干净地切分。如果组织没有在部署前建立"谁对工作流设计负责、谁对数据质量负责"的明确分工,出事之后的归因就会变成一场消耗战。
第三层:结果责任
Agent的输出影响了真实用户,或者触发了真实的业务决策,损失最终由谁兜底?
这一层最接近法律意义上的责任,但它不只是法律问题。它是组织章程和合同设计的问题。
用了AI Agent处理客户数据的公司,在用户协议里有没有覆盖Agent决策的条款?对企业内部,管理层有没有明确哪个职能部门对Agent的业务结果负最终责任?这些问题,技术团队没有权限回答,必须在组织层面显式设计。
工牌之后的下一步
如果你读过工牌篇,应该记得那篇的核心论点:部署Agent之前,要先给它发"工牌"——定清楚它的身份、角色、权限边界。
工牌是必要的,但工牌只解决了身份问题。
一个真实组织里的员工,不只有工牌。他有汇报线——出了问题找谁汇报。他有绩效目标——什么结果算好、什么结果算失职。他有违规后果——越权操作之后会发生什么。
这套机制,不会因为"员工"变成了Agent就自动消失。它只是变成了没有人主动去建的一个空白。
给Agent发工牌,是组织的第一步。建立对应的问责机制,才是第二步。 大多数组织停在第一步,觉得"权限划清楚了,出事找供应商"——这个逻辑在Agent只是工具的时代是成立的,但在Agent开始端到端执行业务流的时候,就不够用了。
一个最小可行的起点
不给完整方案,这件事没有统一答案——不同行业的监管要求、不同组织的治理结构,会让具体的设计差异很大。
但有三个问题,任何组织在部署Agent之前都应该能够回答,而且答案必须是真实的人名或者真实的角色,不能是"系统"或者"流程":
这个Agent的权限边界,是谁最终批准的? 如果这个Agent明天权限扩大了一倍,谁会知道、谁会审批、谁对这个决定负责。
Agent出了错,第一个接到通知的是谁? 不是指自动告警推送给哪个群,而是哪个真实的人有责任在收到通知之后做出判断和处置。
受影响的用户或业务,找谁? 客户投诉、监管问询、内部业务损失——这些场景里,谁是接球的人。
三个问题,如果都能填上真实的名字,责任链的基本形态就出来了。填不上的,说明组织还没有准备好让Agent端到端跑业务。
写在最后
YC W26的56家AI原生服务公司,代表的不只是这56个团队的选择,而是整个行业正在走的方向——Agent从辅助走向执行,从工具走向主体。
这个方向是对的,也是不可逆的。
但有一件事,行业走得比组织快:技术上Agent已经可以端到端跑业务了,但大多数组织在问责机制上,还停留在"AI只是一个工具,出了事找技术部门"的认知里。
这个缺口,不会因为Agent越来越聪明而自动消失。它只会随着Agent接管的业务越来越核心,变得越来越贵。
在Agent接管之前,先把那三个问题的答案想清楚。这不是在给Agent加限制,而是在给你自己的组织一道保险。
我是「AioGeoLab」主理人塔迪Tardi,AioGeoLab是深度洞察AI第一性原理和应用实践的前瞻性研究实验室,目前有两个主要研究方向:
「塔迪GEO判断工程」是基于GEO的价值SEO化,在AI从“说”到“做”的重要跃迁阶段,试图回答,如何让AI敢于行动、不因为责任问题而畏手畏脚,而做的一个前沿研究项目。
「塔迪硅基禅心」是传统东方智慧、未来AI前沿、当下应用实践,深层共鸣的探索。不是用AI解读经典,也不是用经典指导AI。 这是一场跨越2500年的对话,在算法与古老智慧之间,照见意识、智能与存在的本质。
塔迪的微信 - tardyai2025。
