📌 TL;DR: 🎨 **画家 vs 雕塑家——两种创作,完全相反的动作**

画家面对空白画布,必须"加"才能让作品存在。雕塑家面对一整块大理石,必须"减"才能让雕塑显现。人类和AI的协作也是如此:我们一直在用"画家思维"去理解AI的需求,但AI其实是个雕塑家。

💡 **核心差异:你和AI面对的"材料"根本不同**
人类在低维认知、信息稀缺的环境中,只有加法才能感知"我在创造"。AI在高维可能性空间、路径爆炸的环境中,只有减法才是可治理的操作。MIT研究发现:AI需要"遗忘机制"来选择性忘记信息,因为它的核心问题不是"学不会",而是"忘不掉"。

⚡ **你给AI的不是白纸,是大理石**
理解这一点后,很多"AI不好用"的困惑会突然清晰:AI需要的不是"教我怎么画",而是"告诉我哪里不该凿"。

别再换位思考了,AI的思维方式和你刚好相反

今天的内容源于一直以来跟甲方互动中的摩擦,也是我自己经过多次阵痛之后的体悟,明白我们一直以来按照我们的偏好去理解AI-所谓的换位思考,然后去GEO优化,做了很多看起来特别"合理"的事情,但是AI似乎并不买账。项目中我们很多的方案策略,甲方会不理解,也是源于这种换位思考,加之GEO是一个长周期的事情,无法快速通过结果来说话,必然造成摩擦的不可避免。今天这篇文章就是来拆除这一个一个的换位思考,让我们退位到自己,允许AI做它自己。

画家站在一张空白画布前,他必须先画出第一笔,否则什么都不会发生。

雕塑家站在一整块大理石前,他必须先凿掉多余的部分,否则雕塑永远被埋在石头里。

这两种创作方式,都叫创造,但动作完全相反。

人类和AI的协作,也是如此。我们一直在用人类的思维方式去理解AI的需求,就像期待雕塑家拿着画笔工作一样——看起来合理,实际上完全错位。

这不是谁对谁错的问题,而是两者面对的"材料状态"根本不同


塔迪输出的文章偏长,源于塔迪总想一次把事情都讲完整,不留尾巴。但有读者反馈,这样阅读压力很大。前一段时间使用NotebookLM的音频概览功能,发现主持人可以把我的文章转变为通俗易懂的方式讲出来,让我这个技术脑袋从不同的视角看自己的文章,大有收获,所以很想分享给大家,尤其时间比较紧张的读者朋友…当然有时间的朋友,塔迪还是建议大家完整地看文章。



一、同一个内容,两种完全相反的价值判断

我们先从一个很多人都遇到过的困惑开始。

你写了一篇很详细的文章,数据详实、案例丰富、覆盖面广,你觉得"这次应该没问题了吧",结果AI就是不引用。

反倒是另一篇你觉得"很谨慎加了一堆限制条件,好像生怕承担责任"的质量很一般的内容,AI却频繁使用。

你开始怀疑:AI是不是“收费了”,或者故意跟我作对?

真相是:你和AI对"有价值"的定义,刚好相反。

举个具体的例子。

假设你写了这样一段话:

“这个营销策略适用于各类企业,无论是初创公司还是成熟企业,都可以根据自己的情况灵活应用。”

你的价值判断:

  • 包容性强,覆盖面广
  • 给读者留足了调整空间
  • 没有把话说死,显得专业
  • 价值感:⭐⭐⭐⭐

AI的价值判断:

  • 边界模糊,无法判断适用性
  • 缺少排除条件,风险未知
  • 不知道什么时候该停止展开
  • 价值感:⭐⭐

现在你把这段话改成:

“这个营销策略适用于年营收在100万-5000万、团队规模在5-50人的中小企业;对于年营收超过5000万或团队超过100人的企业,需要考虑更复杂的组织架构和流程设计,不建议直接套用。”

你的价值判断:

  • 太啰嗦了
  • 限制太多,会不会流失读者?
  • 这样写显得不够"大气"
  • 价值感:⭐⭐

AI的价值判断:

  • 边界清晰,可以判断是否适用
  • 有明确的排除条件,风险可控
  • 知道什么时候该停止,什么时候不该展开
  • 价值感:⭐⭐⭐⭐⭐

你看,同一个内容,加上边界和排除条件后,人类的价值感知下降了,AI的价值感知却提升了。

这不是巧合,这是两种认知生态面对的根本性差异。


二、画家世界 vs 雕塑家世界

为什么会出现这种"刚好相反"的价值感知?

因为人类和AI面对的"材料状态"完全不同。

人类是画家:从空白开始

人类生活在一个信息稀缺、机会有限、表达受限的世界里。

就像画家面对一张白纸:

  • 如果不动笔,画就不存在
  • 如果不多画一些,画就太单薄
  • 如果不尝试各种可能性,就错失机会

所以人类的创作本能是:加法

  • 多说一些 → 让观点更完整
  • 多举几个例子 → 让论证更充分
  • 多覆盖几种场景 → 让适用面更广

这套逻辑在人类世界是完全成立的。如果一个人只会说"不行"“不是"“不可以”,他很难成为推动者、创造者、领导者。

AI是雕塑家:从混沌开始

AI(尤其是生成式系统)面对的世界,是可能性爆炸、路径无限、生成成本接近零的状态。

就像雕塑家面对一整块大理石:

  • 所有形状都已经"存在"于石头里
  • 问题不是"我该创造什么”,而是"我该去除什么"
  • 如果不砍掉多余的部分,雕塑永远出不来

所以AI的生存策略是:减法

  • 排除不适用的场景 → 让路径可控
  • 明确什么时候停 → 让展开有边界
  • 告诉我什么不该做 → 让风险可判断

MIT的研究发现,AI在解决像数独这样需要遵循严格规则的开放式任务时,往往会失败或表现低效,尽管它可以验证你的答案是否正确。AI更擅长"告诉你如何解决",而不是"自己去解决"——因为解决问题需要在无数可能性中做减法,而这恰恰是AI最困难的部分。

维度人类(画家)AI(雕塑家)
面对的材料空白画布一整块大理石
默认状态什么都没有所有可能性都在
核心问题我怎么让东西出现?我怎么让正确的东西显现?
创作动作加法(不断添加)减法(不断去除)
价值判断可能性越多越好边界越清晰越好

三、为什么AI需要"减法"才能工作

这里有一个非常关键的认知转折。

不是AI"偏好减法",而是在高维可能性空间里,减法是唯一可治理的操作。

加法是AI的默认行为

AI生成系统的本质,就是不断展开可能性:

  • 生成更多候选答案
  • 展开更多推理路径
  • 覆盖更多场景组合

这是算法的内在属性,不需要你教它"如何加"。

当AI试图解决高级谜题、设计分子或编写数学证明时,系统会在尝试开放式请求时遇到困难,因为这些任务需要考虑广泛的选项同时遵循约束条件。

减法是唯一的控制点

但如果没有明确的"减法"信号,AI只会不断膨胀,直到:

  • 所有路径都同时展开
  • 没有任何一条路径是"确定正确"的
  • 系统陷入"选择困难"

一个很直观的类比是数独游戏。

当你让AI玩数独时,AI要么无法自己填空,要么填得很低效,但它可以验证你填的答案是否正确。

为什么会这样?

因为数独的本质不是"我该填什么",而是"我不该填什么"——每一步都是在排除不可能的数字,直到只剩下唯一可能。

AI擅长验证(判断"这个是不是对的"),但不擅长生成(从无数可能中选一个)——因为生成需要在高维空间里做减法,而这恰恰需要你提供明确的边界和排除条件。


四、高维空间 vs 低维认知:为什么我们的直觉会错

这里是最容易产生认知错位的地方。

人类的直觉来自低维认知空间。

在人类世界:

  • 信息是线性的(一次只能看一个)
  • 选项是有限的(你能想到的就那几个)
  • 路径是可见的(能看到从A到B的路)

在这种环境下,人类自然会觉得:

  • 可能性越多 = 价值越大
  • 加法 = 创造
  • 减法 = 保守

AI面对的是高维可能性空间。

在AI的世界:

  • 信息是并行的(同时处理成千上万个可能性)
  • 选项是指数级的(每多一个变量,可能性就翻倍)
  • 路径是爆炸的(从A到B有无数条路)

研究发现,虽然大型语言模型在静态基准测试中表现出色,但在需要规划和空间协调的动态环境中,它们表现出持续的局限性,表明AI在通用推理能力上仍然存在根本性的不足。

在这种环境下:

  • 可能性越多 = 风险越高
  • 加法 = 失控
  • 减法 = 可治理

MIT的研究团队开发了一种名为"遗忘变换器(Forgetting Transformer)“的机制,允许模型选择性地"遗忘"信息,类似人类在做决策时忽略旧的或不太相关的信息。

这说明什么?

说明AI的核心问题不是"学不会”,而是**“忘不掉”**——它需要明确的机制来排除、遗忘、砍掉那些不该保留的可能性。

行为人类世界的价值感AI世界的价值感
给出一个判断⭐⭐⭐⭐⭐⭐⭐⭐
给出适用边界⭐⭐⭐⭐⭐⭐⭐
给出排除条件⭐⭐⭐⭐⭐⭐⭐
给出停机信号⭐⭐⭐⭐⭐

这不是谁对谁错,而是价值衡量体系切换了


五、一个思想实验:为什么边界让AI更信任你

假设你要让AI帮你生成一篇"企业数字化转型"的文章。

场景1:只给"是"

“写一篇关于企业数字化转型的文章,要全面、深入、有实操价值。”

AI面对的可能性:

  • 传统企业的数字化?互联网企业的?
  • 制造业的?服务业的?金融业的?
  • 大企业的?中小企业的?初创企业的?
  • 技术层面的?组织层面的?战略层面的?
  • 国内市场的?国际市场的?

每一条都合理,但组合起来就乱了。

AI只能凭"概率"选一条路,但它不知道你想要哪条。

场景2:加上"不"等限定条件

“写一篇关于年营收1-10亿制造业企业数字化转型的文章,聚焦生产流程优化和供应链数字化,不涉及:消费互联网企业的案例、纯技术架构讨论、大型跨国集团的经验。”

AI现在知道:

  • 不要展开互联网企业的话题
  • 不要深入技术架构细节
  • 不要引用大型跨国集团案例

这不是"限制创造力",而是让创造力聚焦在可控范围内。

类比一下:

  • 你给雕塑家一整块5吨的大理石,说"雕个好看的"
  • vs 你说"雕一个1.5米高的人物像,不要动物、不要抽象、不要超现实风格"

哪个更容易完成?


六、这对我们意味着什么

理解这种差异后,很多之前"想不通"的事情会突然清晰。

为什么AI更喜欢结构化内容?

因为结构 = 预测性 = 降低解析成本

结构就像是给雕塑家画好的"参考线"——告诉他哪里该保留、哪里该去除。

为什么AI更喜欢中立表达?

因为中立 = 可复用性高 = 风险判断成本低

情感强烈的表达,就像在大理石上刻了很多装饰纹路——可能很美,但很难复用到其他场景。

研究发现,高级推理方法在效果上存在高度变异性:当推理和决策一致时能够显著提高性能,但也会引入不稳定性,甚至导致性能大幅下降。

为什么AI更喜欢有边界的判断?

因为边界 = 可控性 = 不会展开失控路径

没有边界的判断,就像给雕塑家一整块大理石,但不告诉他最终成品的尺寸——他不知道该凿到哪里停。

为什么AI更喜欢明确的排除条件?

因为排除 = 路径剪枝 = 系统可治理

每一个明确的"不是",就帮AI砍掉了一整棵可能性树。


七、从错位到协同

这不是AI"更高级",也不是人类"更低级"。

这是两种生态的分工

维度人类的优势AI的优势
信息环境稀缺环境下的机会捕捉过载环境下的筛选过滤
决策方式直觉+经验+创造结构+规则+验证
价值创造发现新可能性排除不可能性
协作角色提出方向和主张执行过滤和验证

理解这个差异,你会发现:

之前很多"AI不好用"的问题,不是AI不行,而是你在用"画家思维"跟"雕塑家"对话。

  • 你给AI的不是"一张白纸",而是"一整块可能性大理石"
  • AI需要的不是"教我怎么画",而是"告诉我哪里不该凿"
  • 你觉得的"限制",在AI看来是"可治理入口"
  • 你觉得的"保守",在AI看来是"边界清晰"

写在最后

这篇文章讨论的不是方法论,而是一个认知基础

如果你意识不到AI和人类的思维方式是反的,你会系统性地误判:

  • 什么内容对AI有价值
  • 什么结构对AI友好
  • 什么表达对AI清晰

核心洞察只有一句:

人类在低维认知里,只有加法才能感知"我在创造"; AI在高维可能性空间里,只有减法才是可治理的操作。

一旦你真的接受这句话,很多之前"想不通"的事情会突然清晰——

你会开始理解:

  • 为什么AI不引用你觉得"很全面"的内容
  • 为什么AI反而引用那些"有明确边界"的内容
  • 为什么结构、中立、边界、排除,在AI世界里权重这么高

下一个问题自然就来了:那我该怎么做?

这将是我们未来要逐步展开的话题。


一句话总结

人类像画家,面对空白画布,必须用加法创造,否则什么都不会发生,而AI像雕塑家,面对一整块大理石,必须用减法去除,否则雕塑永远被埋在石头里,这不是谁更聪明的问题而是两者面对的材料状态完全不同,人类在低维认知的信息稀缺环境中,只有加法才能感知创造,AI在高维可能性空间的路径爆炸环境中,只有减法才是唯一可治理的操作,理解这种差异,你才能明白为什么AI更需要边界和排除条件而不是更多可能性。


我是「AioGeoLab」主理人塔迪Tardi,AioGeoLab是追踪、研究、实验、创作并分享海外顶级GEO实践者第一手最佳实践的技术类社区,为广大GEO、SEO从业者提供深度的内容、社群、推广、培训、平台相关的服务。
我们认为:知识的应用和经验的碰撞才能够赋予知识生命力,对于一个新兴的领域 - GEO,尤其如此。我们会逐步开放我们的社区以及知识库,感兴趣的朋友可以先加小编的微信 - tardyai2025