画家面对空白画布,必须"加"才能让作品存在。雕塑家面对一整块大理石,必须"减"才能让雕塑显现。人类和AI的协作也是如此:我们一直在用"画家思维"去理解AI的需求,但AI其实是个雕塑家。
💡 **核心差异:你和AI面对的"材料"根本不同**
人类在低维认知、信息稀缺的环境中,只有加法才能感知"我在创造"。AI在高维可能性空间、路径爆炸的环境中,只有减法才是可治理的操作。MIT研究发现:AI需要"遗忘机制"来选择性忘记信息,因为它的核心问题不是"学不会",而是"忘不掉"。
⚡ **你给AI的不是白纸,是大理石**
理解这一点后,很多"AI不好用"的困惑会突然清晰:AI需要的不是"教我怎么画",而是"告诉我哪里不该凿"。
别再换位思考了,AI的思维方式和你刚好相反
今天的内容源于一直以来跟甲方互动中的摩擦,也是我自己经过多次阵痛之后的体悟,明白我们一直以来按照我们的偏好去理解AI-所谓的换位思考,然后去GEO优化,做了很多看起来特别"合理"的事情,但是AI似乎并不买账。项目中我们很多的方案策略,甲方会不理解,也是源于这种换位思考,加之GEO是一个长周期的事情,无法快速通过结果来说话,必然造成摩擦的不可避免。今天这篇文章就是来拆除这一个一个的换位思考,让我们退位到自己,允许AI做它自己。
画家站在一张空白画布前,他必须先画出第一笔,否则什么都不会发生。
雕塑家站在一整块大理石前,他必须先凿掉多余的部分,否则雕塑永远被埋在石头里。
这两种创作方式,都叫创造,但动作完全相反。
人类和AI的协作,也是如此。我们一直在用人类的思维方式去理解AI的需求,就像期待雕塑家拿着画笔工作一样——看起来合理,实际上完全错位。
这不是谁对谁错的问题,而是两者面对的"材料状态"根本不同。
塔迪输出的文章偏长,源于塔迪总想一次把事情都讲完整,不留尾巴。但有读者反馈,这样阅读压力很大。前一段时间使用NotebookLM的音频概览功能,发现主持人可以把我的文章转变为通俗易懂的方式讲出来,让我这个技术脑袋从不同的视角看自己的文章,大有收获,所以很想分享给大家,尤其时间比较紧张的读者朋友…当然有时间的朋友,塔迪还是建议大家完整地看文章。

一、同一个内容,两种完全相反的价值判断
我们先从一个很多人都遇到过的困惑开始。
你写了一篇很详细的文章,数据详实、案例丰富、覆盖面广,你觉得"这次应该没问题了吧",结果AI就是不引用。
反倒是另一篇你觉得"很谨慎加了一堆限制条件,好像生怕承担责任"的质量很一般的内容,AI却频繁使用。
你开始怀疑:AI是不是“收费了”,或者故意跟我作对?
真相是:你和AI对"有价值"的定义,刚好相反。
举个具体的例子。
假设你写了这样一段话:
“这个营销策略适用于各类企业,无论是初创公司还是成熟企业,都可以根据自己的情况灵活应用。”
你的价值判断:
- 包容性强,覆盖面广
- 给读者留足了调整空间
- 没有把话说死,显得专业
- 价值感:⭐⭐⭐⭐
AI的价值判断:
- 边界模糊,无法判断适用性
- 缺少排除条件,风险未知
- 不知道什么时候该停止展开
- 价值感:⭐⭐
现在你把这段话改成:
“这个营销策略适用于年营收在100万-5000万、团队规模在5-50人的中小企业;对于年营收超过5000万或团队超过100人的企业,需要考虑更复杂的组织架构和流程设计,不建议直接套用。”
你的价值判断:
- 太啰嗦了
- 限制太多,会不会流失读者?
- 这样写显得不够"大气"
- 价值感:⭐⭐
AI的价值判断:
- 边界清晰,可以判断是否适用
- 有明确的排除条件,风险可控
- 知道什么时候该停止,什么时候不该展开
- 价值感:⭐⭐⭐⭐⭐
你看,同一个内容,加上边界和排除条件后,人类的价值感知下降了,AI的价值感知却提升了。
这不是巧合,这是两种认知生态面对的根本性差异。
二、画家世界 vs 雕塑家世界
为什么会出现这种"刚好相反"的价值感知?
因为人类和AI面对的"材料状态"完全不同。
人类是画家:从空白开始
人类生活在一个信息稀缺、机会有限、表达受限的世界里。
就像画家面对一张白纸:
- 如果不动笔,画就不存在
- 如果不多画一些,画就太单薄
- 如果不尝试各种可能性,就错失机会
所以人类的创作本能是:加法。
- 多说一些 → 让观点更完整
- 多举几个例子 → 让论证更充分
- 多覆盖几种场景 → 让适用面更广
这套逻辑在人类世界是完全成立的。如果一个人只会说"不行"“不是"“不可以”,他很难成为推动者、创造者、领导者。
AI是雕塑家:从混沌开始
AI(尤其是生成式系统)面对的世界,是可能性爆炸、路径无限、生成成本接近零的状态。
就像雕塑家面对一整块大理石:
- 所有形状都已经"存在"于石头里
- 问题不是"我该创造什么”,而是"我该去除什么"
- 如果不砍掉多余的部分,雕塑永远出不来
所以AI的生存策略是:减法。
- 排除不适用的场景 → 让路径可控
- 明确什么时候停 → 让展开有边界
- 告诉我什么不该做 → 让风险可判断
MIT的研究发现,AI在解决像数独这样需要遵循严格规则的开放式任务时,往往会失败或表现低效,尽管它可以验证你的答案是否正确。AI更擅长"告诉你如何解决",而不是"自己去解决"——因为解决问题需要在无数可能性中做减法,而这恰恰是AI最困难的部分。
| 维度 | 人类(画家) | AI(雕塑家) |
|---|---|---|
| 面对的材料 | 空白画布 | 一整块大理石 |
| 默认状态 | 什么都没有 | 所有可能性都在 |
| 核心问题 | 我怎么让东西出现? | 我怎么让正确的东西显现? |
| 创作动作 | 加法(不断添加) | 减法(不断去除) |
| 价值判断 | 可能性越多越好 | 边界越清晰越好 |
三、为什么AI需要"减法"才能工作
这里有一个非常关键的认知转折。
不是AI"偏好减法",而是在高维可能性空间里,减法是唯一可治理的操作。
加法是AI的默认行为
AI生成系统的本质,就是不断展开可能性:
- 生成更多候选答案
- 展开更多推理路径
- 覆盖更多场景组合
这是算法的内在属性,不需要你教它"如何加"。
当AI试图解决高级谜题、设计分子或编写数学证明时,系统会在尝试开放式请求时遇到困难,因为这些任务需要考虑广泛的选项同时遵循约束条件。
减法是唯一的控制点
但如果没有明确的"减法"信号,AI只会不断膨胀,直到:
- 所有路径都同时展开
- 没有任何一条路径是"确定正确"的
- 系统陷入"选择困难"
一个很直观的类比是数独游戏。
当你让AI玩数独时,AI要么无法自己填空,要么填得很低效,但它可以验证你填的答案是否正确。
为什么会这样?
因为数独的本质不是"我该填什么",而是"我不该填什么"——每一步都是在排除不可能的数字,直到只剩下唯一可能。
AI擅长验证(判断"这个是不是对的"),但不擅长生成(从无数可能中选一个)——因为生成需要在高维空间里做减法,而这恰恰需要你提供明确的边界和排除条件。
四、高维空间 vs 低维认知:为什么我们的直觉会错
这里是最容易产生认知错位的地方。
人类的直觉来自低维认知空间。
在人类世界:
- 信息是线性的(一次只能看一个)
- 选项是有限的(你能想到的就那几个)
- 路径是可见的(能看到从A到B的路)
在这种环境下,人类自然会觉得:
- 可能性越多 = 价值越大
- 加法 = 创造
- 减法 = 保守
AI面对的是高维可能性空间。
在AI的世界:
- 信息是并行的(同时处理成千上万个可能性)
- 选项是指数级的(每多一个变量,可能性就翻倍)
- 路径是爆炸的(从A到B有无数条路)
研究发现,虽然大型语言模型在静态基准测试中表现出色,但在需要规划和空间协调的动态环境中,它们表现出持续的局限性,表明AI在通用推理能力上仍然存在根本性的不足。
在这种环境下:
- 可能性越多 = 风险越高
- 加法 = 失控
- 减法 = 可治理
MIT的研究团队开发了一种名为"遗忘变换器(Forgetting Transformer)“的机制,允许模型选择性地"遗忘"信息,类似人类在做决策时忽略旧的或不太相关的信息。
这说明什么?
说明AI的核心问题不是"学不会”,而是**“忘不掉”**——它需要明确的机制来排除、遗忘、砍掉那些不该保留的可能性。
| 行为 | 人类世界的价值感 | AI世界的价值感 |
|---|---|---|
| 给出一个判断 | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ |
| 给出适用边界 | ⭐⭐⭐ | ⭐⭐⭐⭐ |
| 给出排除条件 | ⭐⭐ | ⭐⭐⭐⭐⭐ |
| 给出停机信号 | ⭐ | ⭐⭐⭐⭐⭐ |
这不是谁对谁错,而是价值衡量体系切换了。
五、一个思想实验:为什么边界让AI更信任你
假设你要让AI帮你生成一篇"企业数字化转型"的文章。
场景1:只给"是"
“写一篇关于企业数字化转型的文章,要全面、深入、有实操价值。”
AI面对的可能性:
- 传统企业的数字化?互联网企业的?
- 制造业的?服务业的?金融业的?
- 大企业的?中小企业的?初创企业的?
- 技术层面的?组织层面的?战略层面的?
- 国内市场的?国际市场的?
- …
每一条都合理,但组合起来就乱了。
AI只能凭"概率"选一条路,但它不知道你想要哪条。
场景2:加上"不"等限定条件
“写一篇关于年营收1-10亿制造业企业数字化转型的文章,聚焦生产流程优化和供应链数字化,不涉及:消费互联网企业的案例、纯技术架构讨论、大型跨国集团的经验。”
AI现在知道:
- 不要展开互联网企业的话题
- 不要深入技术架构细节
- 不要引用大型跨国集团案例
这不是"限制创造力",而是让创造力聚焦在可控范围内。
类比一下:
- 你给雕塑家一整块5吨的大理石,说"雕个好看的"
- vs 你说"雕一个1.5米高的人物像,不要动物、不要抽象、不要超现实风格"
哪个更容易完成?
六、这对我们意味着什么
理解这种差异后,很多之前"想不通"的事情会突然清晰。
为什么AI更喜欢结构化内容?
因为结构 = 预测性 = 降低解析成本。
结构就像是给雕塑家画好的"参考线"——告诉他哪里该保留、哪里该去除。
为什么AI更喜欢中立表达?
因为中立 = 可复用性高 = 风险判断成本低。
情感强烈的表达,就像在大理石上刻了很多装饰纹路——可能很美,但很难复用到其他场景。
研究发现,高级推理方法在效果上存在高度变异性:当推理和决策一致时能够显著提高性能,但也会引入不稳定性,甚至导致性能大幅下降。
为什么AI更喜欢有边界的判断?
因为边界 = 可控性 = 不会展开失控路径。
没有边界的判断,就像给雕塑家一整块大理石,但不告诉他最终成品的尺寸——他不知道该凿到哪里停。
为什么AI更喜欢明确的排除条件?
因为排除 = 路径剪枝 = 系统可治理。
每一个明确的"不是",就帮AI砍掉了一整棵可能性树。
七、从错位到协同
这不是AI"更高级",也不是人类"更低级"。
这是两种生态的分工。
| 维度 | 人类的优势 | AI的优势 |
|---|---|---|
| 信息环境 | 稀缺环境下的机会捕捉 | 过载环境下的筛选过滤 |
| 决策方式 | 直觉+经验+创造 | 结构+规则+验证 |
| 价值创造 | 发现新可能性 | 排除不可能性 |
| 协作角色 | 提出方向和主张 | 执行过滤和验证 |
理解这个差异,你会发现:
之前很多"AI不好用"的问题,不是AI不行,而是你在用"画家思维"跟"雕塑家"对话。
- 你给AI的不是"一张白纸",而是"一整块可能性大理石"
- AI需要的不是"教我怎么画",而是"告诉我哪里不该凿"
- 你觉得的"限制",在AI看来是"可治理入口"
- 你觉得的"保守",在AI看来是"边界清晰"
写在最后
这篇文章讨论的不是方法论,而是一个认知基础。
如果你意识不到AI和人类的思维方式是反的,你会系统性地误判:
- 什么内容对AI有价值
- 什么结构对AI友好
- 什么表达对AI清晰
核心洞察只有一句:
人类在低维认知里,只有加法才能感知"我在创造"; AI在高维可能性空间里,只有减法才是可治理的操作。
一旦你真的接受这句话,很多之前"想不通"的事情会突然清晰——
你会开始理解:
- 为什么AI不引用你觉得"很全面"的内容
- 为什么AI反而引用那些"有明确边界"的内容
- 为什么结构、中立、边界、排除,在AI世界里权重这么高
下一个问题自然就来了:那我该怎么做?
这将是我们未来要逐步展开的话题。
一句话总结
人类像画家,面对空白画布,必须用加法创造,否则什么都不会发生,而AI像雕塑家,面对一整块大理石,必须用减法去除,否则雕塑永远被埋在石头里,这不是谁更聪明的问题而是两者面对的材料状态完全不同,人类在低维认知的信息稀缺环境中,只有加法才能感知创造,AI在高维可能性空间的路径爆炸环境中,只有减法才是唯一可治理的操作,理解这种差异,你才能明白为什么AI更需要边界和排除条件而不是更多可能性。
我是「AioGeoLab」主理人塔迪Tardi,AioGeoLab是追踪、研究、实验、创作并分享海外顶级GEO实践者第一手最佳实践的技术类社区,为广大GEO、SEO从业者提供深度的内容、社群、推广、培训、平台相关的服务。
我们认为:知识的应用和经验的碰撞才能够赋予知识生命力,对于一个新兴的领域 - GEO,尤其如此。我们会逐步开放我们的社区以及知识库,感兴趣的朋友可以先加小编的微信 - tardyai2025。
