
厂商拼命扩大Context窗口——但窗口大小不是关键
厂商拼命扩大Context窗口——但窗口大小不是关键 模型厂商这两年一直在拼一个数字:Context窗口有多大。从最早的8K,到128K,再到现在动辄百万Token的超长上下文。每次发布,这个数字都是第一个被拿出来说的。 但如果你用过AI Agent跑复杂任务,你可能注意到一件奇怪的事:窗口明明很大,Agent该忘的还是忘,该跑偏的还是跑偏。 Context窗口的大小,不是问题所在。 ...

厂商拼命扩大Context窗口——但窗口大小不是关键 模型厂商这两年一直在拼一个数字:Context窗口有多大。从最早的8K,到128K,再到现在动辄百万Token的超长上下文。每次发布,这个数字都是第一个被拿出来说的。 但如果你用过AI Agent跑复杂任务,你可能注意到一件奇怪的事:窗口明明很大,Agent该忘的还是忘,该跑偏的还是跑偏。 Context窗口的大小,不是问题所在。 ...

你的龙虾为什么不够懂你?因为你忘了喂它最重要的东西 同样是养龙虾,为什么差距越来越大? 有人用了一个月,觉得龙虾越来越顺手——它开始懂你的工作习惯,知道你的判断标准,不用每次都从头解释。有人用了一个月,觉得龙虾还是那个原生态的龙虾,能干的事情没咋增加。 两个人用的可能是同一个模型,接了差不多的工具。 差距不在工具,在他们喂给龙虾的东西。 NotebookLM的音视频概览,解读的比较通俗易懂,对于时间比较紧张的读者朋友,可以听听,会有启发。 ...