MCP要死了?你被一个真实的缺点误导了

你使用MCP配过AI工作流吗?
接Notion、接日历、接邮件、接GitHub。每接一个都要去找文档、调试配置、写胶水代码。折腾了一圈,你觉得自己终于把Agent武装起来了。
然后打开上下文使用率一看——还没开口说一句话,200K的窗口已经去掉72%了。
这不是极端案例。这是真实发生过的数字:一个开发者连了7个MCP Server,对话还没开始,上下文就只剩下三分之一。有团队甚至测出三个Server吃掉了143K,整个窗口就剩57K留给真正的工作。
于是"MCP是个坑"的说法开始流行,随着Skills的普及,“MCP会被Skills取代,未来属于Skills”。
这个说法有一半是对的——MCP的上下文问题是真实存在的。但从"有缺点"直接跳到"会被取代",这个逻辑链是断的。
NotebookLM的音视频概览,解读的比较通俗易懂,对于时间比较紧张的读者朋友,可以听听,会有启发。
先把问题摆清楚,这不是在辩解
MCP吃上下文,这件事不是谣言,是有具体数字的。
连GitHub、Slack、Sentry三个服务、大约40个工具,Agent还没读到第一条用户消息,55000个token的工具定义就已经坐进了上下文。超过Claude 200K窗口的四分之一,没了。
问题还会叠加。每个MCP工具的名称、描述、JSON schema、参数说明、枚举值、系统指令,加起来要耗掉550到1400个token。接一个真实的SaaS平台,50个以上的接口全部展开,光"告诉Agent能干什么"就把窗口堵死了,根本没地方留给"真正该干什么"。
有开发者在Claude Code跑完/context命令,结果看到:所有MCP工具占据82K token,整个窗口143K已用,而对话内容是0。那是一个空对话的起点。
后果不只是贵。上下文被工具定义占满之后,Agent会开始变笨——工具选错,任务线索中途丢失,速度变慢。团队在扩张MCP规模时发现:Agent越来越难可靠地选择正确的工具,上下文被定义塞满,延迟持续叠加。
2026年3月的Ask大会上,Perplexity的CTO公开宣布:公司正在从MCP转向传统API和CLI工具,原因是上下文窗口消耗过高,加上认证流程繁琐。
这些都是事实,拿出来不是为了挑战结论,是为了说明:批评MCP的那批人,他们所说的问题是真实的。
但"有缺点"和"会被取代"是两件事
现在来看最流行的那个结论:MCP的问题这么多,Skills才是未来,MCP会逐步走向末路。
这个判断犯了一个经典错误:把两个根本不在同一层面工作的东西放进了同一个竞争框架。
MCP和Skills解决的不是同一个问题。
MCP解决的是连通性问题——Agent能触达哪些系统?数据库、邮件、代码仓库、日历、外部API。它是一套标准接口,让AI应用不用为每个外部服务单独写一套对接代码。
Skills解决的是如何做的规范问题——Agent面对具体任务该怎么做?工作流程是什么、判断标准是什么、哪些步骤需要谨慎、怎样的输出才算合格。
用之前讲过的类比说清楚:MCP是厨具,Skills是菜谱。
你接了MCP,Agent就有了锅和刀,能碰到食材。你有了Skills,Agent才知道这道菜该怎么做、火候是什么、最后装盘用什么规格。
光有厨具不知道怎么做菜,做出来的可能是灾难。只有菜谱但没有厨具,根本没法下厨。你不能用菜谱替代厨具,也不能用厨具替代菜谱。
“MCP会被Skills取代"这个判断之所以听起来有道理,是因为两者都在"让Agent更能干"这件大事上有贡献。但贡献的方向不同,不构成竞争关系,更不存在谁取代谁的问题。
MCP在解决自己的问题
更关键的是,MCP被批评的核心问题——上下文占用——本身就在被解决。
已经有方案把Token消耗降低96%以上,同时在所有工具集规模和任务复杂度下保持100%的成功率。核心思路是动态加载:不再一次性把所有工具定义塞进上下文,而是先只加载工具名称和简短描述,真正要用哪个工具才加载完整的schema。
MCP协议本身不消耗token,消耗发生在客户端把工具定义加载进上下文的那一刻,以及工具结果注入回上下文的时候。这意味着问题不在协议本身,在于怎么用这个协议。
这个区别很重要。批评者说"MCP吃上下文”,准确的说法应该是"把所有工具一次性全部加载的用法吃上下文"。这是实现方式的问题,不是协议的原罪。
行业已经形成了多种解法,能把Token使用量减少96%到99%,同时维持可靠性。当初最大的那个"竞争优势论点"——MCP比Skills占更多上下文——在动态加载方案成熟之后,已经基本失效。
一个协议是否健康,看它怎么应对批评
判断一个基础设施技术是否真的在走向末路,有一个简单的标准:批评有没有推动它改进?
MCP的批评声音很响,但它的应对轨迹同样清晰。
截至目前,MCP生态中已有超过10000个活跃的公开MCP Server,覆盖从开发者工具到财富500强部署的各类场景;ChatGPT、Cursor、Gemini、Microsoft Copilot都已接入;官方SDK月下载量超过9700万次。
2024年11月Anthropic发布MCP,2025年3月OpenAI正式采纳并整合进ChatGPT桌面应用,Google DeepMind随后跟进,Microsoft通过Azure OpenAI接入。四家顶级AI公司同时跑在同一套协议上,这件事本身就说明了问题。
OpenAPI、OAuth 2.0、HTTP这些我们现在视为基础设施的标准,分别用了大约五年、四年和整个90年代才达到类似的跨厂商采纳程度。MCP在16个月内走完了这段路。
Anthropic在2025年12月把MCP捐给了Linux Foundation旗下的Agentic AI Foundation,由Anthropic、Block和OpenAI共同创立,Google、Microsoft、AWS、Cloudflare提供支持。一个"走向末路"的协议,不会在这个节点上完成这个动作。
这不是MCP在走下坡路,这是它生产级成熟的过程。每一个经历过这个阶段的基础设施技术都有类似的轨迹:Docker、Kubernetes、HTTP本身——都经历过"问题一大堆,要被取代了"的声音,然后在批评中一点点变强。
正确的问题不是"谁会赢"
回到最开始,如果你接了几十个工具但90%的任务只用其中两三个,每次对话都把全部schema塞进窗口,确实是个坏设计。
工具越多越好是一种直觉,但直觉在这里是错的。 克制的工具设计——只接真正需要的服务,聚焦的Server,按需加载——才是MCP发挥价值的正确方式。早期那批demo式的兴奋是正常的,现在的生产级冷静才是成熟。
MCP和Skills将长期共存,各自做各自该做的事。MCP负责让Agent能触达世界,Skills负责让Agent知道该怎么做。两者合在一起,Agent才既有手,又知道手该往哪里伸。
写在最后
“MCP要死"这个判断,把一个真实的局限性误读成了结构性的致命伤。这是一个很常见的认知模式:看到缺点,推断出末路,忽略了缺点正在被修复、协议正在成熟这个过程。
MCP现在面临的挑战是真实的。但判断一项技术是否健康,看的不是它有没有批评声,而是批评之后它往哪个方向走。
当Agent能连接任何系统、也知道该怎么做的时候——真正值得追问的问题才浮出水面:谁在决定它应不应该做?做了之后,责任归谁?
这是MCP和Skills都无法回答的问题。
我是「AioGeoLab」主理人塔迪Tardi,AioGeoLab是深度洞察AI第一性原理和应用实践的前瞻性研究实验室,目前有两个主要研究方向:
「塔迪GEO判断工程」是基于GEO的价值SEO化,在AI从“说”到“做”的重要跃迁阶段,试图回答,如何让AI敢于行动、不因为责任问题而畏手畏脚,而做的一个前沿研究项目。
「塔迪硅基禅心」是传统东方智慧、未来AI前沿、当下应用实践,深层共鸣的探索。不是用AI解读经典,也不是用经典指导AI。 这是一场跨越2500年的对话,在算法与古老智慧之间,照见意识、智能与存在的本质。
塔迪的微信 - tardyai2025。
