📌 TL;DR: 😰 "为什么第1周18%、第2周22%、第3周9%、第4周19%?我们什么都没改!"——这是GEO从业者最大的焦虑。答案:这就是正常状态,因为GEO是黑箱概率系统,不是SEO那样的确定性系统。

🎲 三层黑箱决定概率:预训练层100%不可控(但可搭Wikipedia便车)、检索层60%不可控(但可优化Schema入库)、生成层80%不可控(因为temperature、浮点精度、硬件差异让完全确定性不可能)。排名第1的页面引用率也只有33%,26%的品牌AI提及为零——不被引用不代表你差。

💡 三个心态转变:不追求"这篇文章一定被引用"而是"10篇预计3-5篇",不看单日数据而看30天移动平均,不找单一原因而接受多因素综合。用统计学公式量化(P=入库×检索×生成,优化后提升14倍)、黑箱测试法实验(A/B测试6个月)、投资组合分散风险。真正高手不追求100%确定,而是在不确定中持续提升概率。

为什么今天引用率20%明天8%?理解GEO的黑箱概率本质

上周,某B2B公司的增长负责人发来一份Excel,满脸焦虑:

“塔迪,你看这个数据——
第1周:AI引用率18%
第2周:22%
第3周:9%
第4周:19%

我们什么都没改,为什么跳这么大?是不是哪里出问题了?”

我问他:“你们内容有改动吗?”

“没有,一个字都没动。”

“竞品有新动作吗?”

“也没有,我们每天监控。”

“那就对了——这就是GEO的正常状态。

他愣住:“正常?这怎么能叫正常?SEO的排名不会这样跳。”

“因为SEO是确定性系统,GEO是概率系统。你用SEO的思维做GEO,当然会焦虑。”

这个对话揭示了GEO从业者最大的认知盲区:把黑箱概率系统,当成了透明确定系统。

今天我们不讲具体优化技巧,而是深挖GEO的本质——理解"黑箱"和"概率",是所有GEO策略的认知基座。


塔迪输出的文章偏长,源于塔迪总想一次把事情都讲完整,不留尾巴。但有读者反馈,这样阅读压力很大。前一段时间使用NotebookLM的音频概览功能,发现主持人可以把我的文章转变为通俗易懂的方式讲出来,让我这个技术脑袋从不同的视角看自己的文章,大有收获,所以很想分享给大家,尤其时间比较紧张的读者朋友…当然有时间的朋友,塔迪还是建议大家完整地看文章。



什么是黑箱系统?三个日常类比

“黑箱系统"听起来很学术,但你每天都在和它打交道。

类比1:天气预报

你的经历

气象台说"明天下雨概率60%",你带了伞出门,结果艳阳高照。

你会骂气象台"骗子"吗?不会,因为你理解:

  • 输入:气压、温度、湿度、风向(可观察)
  • 黑箱:大气系统(极其复杂,无法完全建模)
  • 输出:60%概率下雨(概率性预测)

关键认知

  • 60%不是100%,可能不下雨是正常的
  • 你不会因为一次"预测失败"就否定气象学
  • 你关注的是"长期看,60%的预测准不准”

GEO也一样

  • 输入:内容质量、结构化、权威性(可优化)
  • 黑箱:AI模型(tokenization、attention、RAG、生成策略)
  • 输出:被引用概率30%(概率性结果)

类比2:投资

两种思维方式

赌徒思维(确定性): “我买这支股票,一定会涨!”

投资人思维(概率): “这支股票有60%上涨概率。我做20次投资,预计12次赚6次亏,整体盈利。”

GEO的对应

确定性思维: “我优化了这篇文章,AI一定会引用!”

概率思维: “我优化了10篇文章,预计3-5篇会被引用,整体ROI为正。”

关键洞察

巴菲特的投资命中率也只有60%左右——不是每次都对,而是"对的次数>错的次数"。

GEO也一样:不追求每篇100%被引用,而是追求整体概率最大化。


类比3:医疗诊断

医生的日常

医生给你开药:“这个药对你的病有70%有效率。”

你会说:“为什么不是100%?你是庸医!“吗?

不会,因为你理解:

  • 人体是黑箱,药物反应有个体差异
  • 70%已经是很高的有效率
  • 医学追求的是"提高治愈概率”,不是"保证100%治愈”

GEO的对应

某GEO服务商说:“我们的优化能把引用率从10%提升到30%。”

客户说:“为什么不是100%?你做得不够好!”

问题:客户不理解GEO是概率系统,不是确定系统


GEO的黑箱有多"黑"?三层结构解剖

AI不是单一黑箱,而是三层嵌套的黑箱——每层的"不可控程度"不同。

第一层:预训练层(完全黑箱,100%不可控)

机制

AI在训练时"读过"数十亿网页,高频出现的源被"固化"进模型权重。

Wikipedia占ChatGPT引用的7.8%,Reddit占Google AI Overviews的2.2%、Perplexity的6.6%——这些是AI的"固化记忆"。

类比

就像你小时候背的唐诗,即使多年不看,依然能脱口而出——这是"固化认知",无法修改。

你能控制吗?

不能:模型权重已固化,外部无法改变

但可以"搭便车"

  • 引用Wikipedia、Nature等AI"固化记住"的源
  • 链接到已被AI认知的品牌、机构、人物
  • 用AI训练时的高频术语(而非自创词)

不可控程度:100%


第二层:检索层(半黑箱,40%可控)

机制

RAG(检索增强生成)系统的知识库——哪些内容"上架"了?

类比

图书馆有千万本书,但你的论文引用的只是"你书架上"的那几百本。

你可以影响"哪些书上架"(提交你的内容),但不能控制"借阅者一定借你的书"。

你能控制什么?

可优化的因素

  • 结构化程度(Schema markup、清晰层级)
  • 可追溯性(来源标注、时间戳、作者署名)
  • 权威背书(被其他权威源引用)
  • 持续更新(保持时效性)

不可控的因素

  • AI的具体检索算法(黑箱)
  • 与其他内容的竞争(动态变化)
  • 检索时的上下文(每个query不同)

不可控程度:60%


第三层:生成层(动态黑箱,80%不可控)

机制

用户query触发的实时生成——AI在有限的输出token里,选择引用哪些内容。

即使temperature设为0(理论上的确定性模式),AI输出仍有微小变化。由于浮点精度、硬件差异、Mixture-of-Experts路由等因素,完全确定性输出在技术上不可能。

类比

扔骰子——你知道是6面骰子,但不知道会扔出几。

你能控制什么?

可优化的因素

  • 增加"骰子面数"(多维度优化,提高"中奖面")
  • 信息密度(让AI更愿意引用你)
  • 金句设计(方便AI摘录)

完全不可控的因素

  • 用户query的具体措辞
  • 当次生成的随机性
  • 其他被检索内容的质量
  • AI的"心情"(温度参数、采样策略)

不可控程度:80%


三层黑箱的协同效应

关键洞察

三层不是孤立的,而是乘法关系

P(被引用) = P(固化认知) × P(入库) × P(被检索) × P(被生成)

不优化:0.1 × 0.2 × 0.3 × 0.15 = 0.9%
优化后:0.2 × 0.6 × 0.7 × 0.4 = 3.36%

提升274%!

虽然每一层都有不可控因素,但"乘法效应"让优化产生巨大价值。


SEO vs GEO:从确定性到概率性的范式转变

很多人把GEO当成"SEO 2.0",这是认知错误

它们的本质不同:

维度SEO(确定性系统)GEO(概率系统)
规则透明度高(Google公开部分规则)低(AI内部机制黑箱)
结果可预测性高(排名算法相对稳定)低(AI输出有随机性)
优化反馈周期可预测(1-3个月见效)不确定(可能突然变化)
波动性低(排名相对稳定)高(引用率大幅波动)
竞争维度单一(排名位置)多维(权威性、时效性、格式…)
心态控制影响

为什么GEO更不确定?

1. AI模型本身有随机性

Temperature参数控制AI生成的随机性——即使设为0(理论上最确定),仍有变化。

浮点精度限制、硬件并行处理差异、解码平局打破机制都会引入变化。

类比

  • SEO像机械钟表(齿轮转动,结果确定)
  • GEO像量子系统(观察前,状态叠加)

2. 多个AI平台规则不同

ChatGPT偏好Wikipedia(占7.8%引用),Perplexity偏好Reddit(占6.6%)——同样内容,不同AI有不同偏好。


3. 用户query多样化

同一问题,100种问法:

  • “什么是GEO?”
  • “GEO是什么意思?”
  • “解释一下GEO”
  • “GEO vs SEO有什么区别?”

每种问法,AI的检索和生成策略都不同。


4. 实时动态变化

AI引用存在"citation drift"(引用漂移)现象——你的品牌可能出现、消失、再出现。

SEO的"确定性幻觉"

其实SEO也不是100%确定(Google算法也有随机性),但相对GEO,确定性要高80%

GEO把SEO的"隐藏不确定性"放大了10倍。


从确定性思维到概率性思维:三个心态转变

理解了"黑箱"和"概率"后,关键是思维方式的转变

转变1:目标设定——从"控制结果"到"影响概率"

确定性思维概率性思维
“这篇文章一定要被引用”“10篇文章,预计3-5篇被引用”
“引用率要达到80%”“引用率从10%提升到30%就是成功”
“我要控制AI的输出”“我要影响AI输出的概率”
“为什么没被引用?我做错了什么?”“没被引用是概率结果,继续优化概率”

行业benchmark

排名第1的页面,AI引用率是33.07%;排名第10的页面,引用率是13.04%。

这意味着:即使排名第1,也只有1/3概率被引用——2/3的时候不被引用是正常的。

26%的品牌在AI Overviews中的提及次数为零——不被引用不代表你做得差,可能只是概率游戏的结果。


转变2:观察周期——从"单日数据"到"长期趋势"

确定性思维概率性思维
看单日/单周数据看30天/90天移动平均
波动=有问题波动=正常,看趋势
立即见效3-6个月观察期
“今天引用率8%,完了!”“30天平均18%,趋势向上,继续”

现实数据

某B2B公司的90天引用率波动:

  • 最高单日:34%
  • 最低单日:7%
  • 30天移动平均:19%±5%

如果只看单日,会吓死;看移动平均,很稳定。

Citation drift(引用漂移)是常态——品牌可能出现、消失、再出现,需要追踪"重现率"而非单次出现 。


转变3:归因逻辑——从"单一原因"到"多因素综合"

确定性思维概率性思维
“没被引用=我做错了”“没被引用=概率结果+多因素综合”
“竞品被引用=不公平”“竞品在某些维度有优势,我找我的差异化”
“寻找唯一原因”“承认复杂性,优化可控因素”
“为什么AI今天不引用我?”“今天不引用可能因为query措辞、竞品更新、随机性”

真实案例

某内容同一天被ChatGPT引用3次、Claude 0次、Perplexity 2次。

原因

  • ChatGPT偏好权威源(你引用了Wikipedia)
  • Claude偏好完整论述(你的内容相对简短)
  • Perplexity偏好时效性(你刚更新)

不是"哪个AI不公平",而是"不同AI有不同偏好"。


概率优化的实战方法:提升概率,而非控制结果

理解了概率本质,不是"听天由命",而是更科学地优化

方法1:统计学思维——用公式量化概率

核心公式

P(被引用) = P(入库) × P(被检索) × P(被生成)

实际案例

某金融科技公司的6个月优化:

优化前

  • P(入库) = 0.2(缺乏Schema、无作者认证)
  • P(被检索) = 0.3(关键词覆盖不足)
  • P(被生成) = 0.2(信息密度低)
  • 总概率 = 0.2 × 0.3 × 0.2 = 1.2%

6个月优化后

  • P(入库) = 0.6(完整Schema + CFP认证作者 + 每月更新)
  • P(被检索) = 0.7(覆盖15种问法 + 小标题优化)
  • P(被生成) = 0.4(金句设计 + 数据密集)
  • 总概率 = 0.6 × 0.7 × 0.4 = 16.8%

提升14倍!

关键洞察

虽然每一步都是概率,但"乘法效应"让小优化产生巨大价值。


方法2:黑箱测试法——用实验逼近真相

既然是黑箱,如何优化?答案:实验。

科学方法(5步)

Step 1:提出假设 “结构化表格比段落更容易被引用”

Step 2:设计实验

  • A组:10篇内容用表格
  • B组:10篇内容用段落
  • 控制变量:篇幅、主题、发布时间相似

Step 3:执行6个月 给足够时间让AI重新索引

Step 4:统计分析

  • A组平均引用率:26%
  • B组平均引用率:14%
  • 差异显著(p<0.05),假设成立

Step 5:迭代优化 后续内容都用表格

关键原则

  • 样本量足够:不是1篇vs1篇,而是10篇vs10篇
  • 控制变量:除了测试变量,其他都相同
  • 长期观察:不是1周,而是6个月
  • 数据说话:不是"感觉",而是统计显著性

方法3:投资组合思维——分散风险

不要把所有鸡蛋放一个篮子

10篇内容的组合策略:

3篇:原创数据报告
  - 成本:高(每篇2万)
  - 归因率:60-80%
  - 预期:3 × 70% = 2.1篇被引用

4篇:深度实战经验
  - 成本:中(每篇5千)
  - 归因率:30-50%
  - 预期:4 × 40% = 1.6篇被引用

3篇:策展式内容
  - 成本:低(每篇2千)
  - 归因率:15-30%
  - 预期:3 × 20% = 0.6篇被引用

总计:4.3篇被引用,整体归因率43%

关键

  • 不追求"每篇都100%"
  • 而是"组合ROI最优"
  • 高成本高回报 + 低成本低回报 = 平衡

接受的智慧:三个"和解"

最后,我们需要和三件事"和解"。

和解1:和波动和解——接受不确定性

错误心态: “为什么昨天引用率20%,今天8%?我一定做错了什么!”

正确心态: “波动是正常的。AI生成即使在temperature=0也有微小随机性。我关注30天移动平均,不纠结单日数据。”

类比

  • 你不会因为某天股市跌了就怀人生
  • 你看的是季度/年度收益

行动

  • 用Excel记录每日引用率
  • 计算30天移动平均线
  • 只在移动平均线连续下跌30天时才警觉

和解2:和竞争和解——接受多维博弈

错误心态: “我的内容明明比竞品好,为什么AI引用他们?”

正确心态: “AI引用是多因素综合决策。竞品可能在’权威性’或’时效性’上有优势。我要找到我的差异化维度。”

现实

你的优势竞品的优势AI选谁?
内容质量品牌权威可能是竞品
深度分析时效性取决于query
数据详实格式清晰取决于AI偏好

不是"谁绝对好",而是"谁在当前维度更匹配"。


和解3:和不完美和解——接受有限性

错误心态: “我要做到100%被引用”

正确心态: “排名第1的页面引用率也只有33%。我的目标是’比不优化时提升3倍’,而非'100%’。”

类比

  • NBA巨星的命中率也只是50%左右
  • 巴菲特的投资正确率也只是60%
  • 天气预报的准确率也只是70-80%

他们追求的是"提升成功率",不是"永不失败"。

GEO也一样

  • 从10%提升到30%,就是300%增长
  • 从30%提升到50%,已经是行业顶尖
  • 追求60%+,需要巨大资源投入(边际收益递减)

写在最后

为什么今天引用率20%,明天8%?

不是因为你做错了什么,而是因为GEO本质就是黑箱概率系统

三层黑箱

  • 预训练层(100%不可控,但可搭便车)
  • 检索层(60%不可控,但可优化入库)
  • 生成层(80%不可控,但可提升概率)

三个心态转变

  • 目标设定:从"控制结果"到"影响概率"
  • 观察周期:从"单日数据"到"长期趋势"
  • 归因逻辑:从"单一原因"到"多因素综合"

三个实战方法

  • 统计学思维:用公式量化概率
  • 黑箱测试法:用实验逼近真相
  • 投资组合思维:分散风险,优化ROI

三个和解

  • 和波动和解:接受不确定性
  • 和竞争和解:接受多维博弈
  • 和不完美和解:接受有限性

SEO让我们误以为"数字营销是可控的",GEO让我们回归"营销本就是概率游戏"。

不是GEO特殊,而是SEO太"幸运"地给了我们确定性幻觉。

真正的高手,不是追求100%的确定,而是在不确定中,持续提升概率。

拥抱黑箱,接受概率,你就不会再为波动焦虑——因为你知道,这就是GEO的常态。


一句话总结

GEO引用率波动的根源在于其黑箱概率本质——AI由三层黑箱构成,加上温度参数、浮点精度、硬件差异等因素导致,即使temperature=0也无法完全确定,SEO是相对确定系统,而GEO把隐藏不确定性放大10倍,需要三个心态转变,用统计学思维量化概率、黑箱测试法实验优化、投资组合思维分散风险,最终和波动和解、和竞争和解、和不完美和解,因为排名第1的引用率也只有33%,真正的高手不是追求100%确定而是在不确定中持续提升概率。


我是「AioGeoLab」主理人塔迪Tardi,AioGeoLab是追踪、研究、实验、创作并分享海外顶级GEO实践者第一手最佳实践的技术类社区,为广大GEO、SEO从业者提供深度的内容、社群、推广、培训、平台相关的服务。
我们认为:知识的应用和经验的碰撞才能够赋予知识生命力,对于一个新兴的领域 - GEO,尤其如此。我们会逐步开放我们的社区以及知识库,感兴趣的朋友可以先加小编的微信 - tardyai2025