微信扫码
添加专属顾问
我要投稿
Claude 上下文长度提升至100万,实际可用空间暴增8倍,彻底解决长对话信息丢失问题!核心内容: 1. 200K到1M上下文升级的实际可用空间对比分析 2. 长上下文对模型推理能力的本质提升 3. 多场景测试数据验证性能优势
大多数人低估了昨天 Claude开放 100 万上下文长度的更新,从 200K 到 1M,上下文长度其实不是提升到原来的 5 倍,而是 7 倍、8 倍、9 倍。
因为原来 200K 的上下文里有很大一部分会被系统提示词、记忆、skills,以及预留的 compact buffer 所占据。所以你真正可使用的项目上下文长度其实就 100K 出头,现在在 1M 上下文里,项目可用的上下文提升到了 900K 左右。
我打开 /context 截了两张图:
Sonnet 4.6(200K)——打开对话就用掉了 25%
Opus 4.6(1M)——同样的 skill 配置,用掉的比例缩到 4%
Free space 的对比:
· Sonnet 4.6(200K):free space 118k(58.8%)
· Opus 4.6(1M):free space 923k(92.3%)
923 ÷ 118 ≈ 7.8 倍。名义上 5 倍,实际可用空间接近 8 倍。对于 skill 配置越重的用户,这个数字越夸张——这就是我说它等效于 6-10 倍的原因。
被 compact 折磨过的人都懂这是什么感觉。对话太长触发 compact,有时候顺,有时候直接失败,对话就卡死了。重开,手动粘贴上下文,每次都有信息损耗,然后模型在同一个地方再犯一遍你以为解决了的错。
上下文不是容量,是草稿纸
费曼不相信自己说不清楚的东西。他的标准是:把所有符号去掉还能讲清楚,才算真理解。上下文限制限制的不只是能放进去多少内容。
你正在解一道复杂的数学题,做到一半,我把你的草稿纸拿走了。你变笨了吗?没有。但你能解出那道题吗?也不能了。
问题出在草稿纸,不在你的大脑。模型的上下文就是它的草稿纸。
记忆不只是存储,是推理的原材料。推导结论,前提和中间步骤得记在某个地方,才能一步步往下走。每推一步就忘一步,算力再猛也推不出来。上下文窗口就是模型的有效记忆范围,超出去只能猜。
所以模型出错很多时候不是不够聪明,是看不见:
代码开发:bug 的根源在三个文件之前引入的变量定义。那个定义超出上下文了,模型看不见,只能猜。
长文写作:写到后半段,前面某个论点超出窗口了。模型开始隐隐复述已经说过的东西,或者前后逻辑出现细微矛盾。你改稿时才发现,时间没了。
多轮对话:第 3 轮定的约束到第 30 轮消失了。建议越来越奇怪,你说不出哪里不对,就是感觉「它没在听」。
上下文越小,这类残缺越多,判断越差。
数据:上下文越长,Claude 和其他模型差距越大
数据也能说明这件事。Anthropic 用 MRCR v2(8-needle)测了一组长上下文检索,任务是在超长文本里同时找多个藏起来的关键信息。
| Claude Opus 4.6 | 91.9% | 78.3% |
| Claude Sonnet 4.6 | 90.6% | 65.1% |
† GPT-5.4 的 256K 数据为 128K–256K 区间均值
上下文越长,差距越大。 256K 时几个模型还挤在一起,拉到 1M,GPT-5.4 掉到 36.6%,Gemini 3.1 Pro 掉到 25.9%,Claude Opus 4.6 还在 78.3%。不是 Claude 在短上下文里更强——是拉长之后别人扛不住,Claude 还在。
Claude Code 的 PM Boris Cherny 也在推上确认了一件事:
Opus 4.6 1M 现在是 Claude Code Max、Team、Enterprise 的默认模型,不用改任何设置。Pro 版和 Sonnet 用 /extra-usage 手动开启。
Anthropic 还引用了个客户案例:用上 1M 上下文之后,自动压缩事件减少了 15%。这跟我自己的体感对得上。我自己估,对长期迭代的复杂项目,这个价值至少等于模型能力提升 10%-20%。
API也取消溢价了
900K token 的请求和 9K token,现在一个价:
| Anthropic Claude | ✓ 无溢价,和短上下文一个价 |
OpenAI 收长度税,Anthropic 现在不收了。终于,上下文成了top模型的标配。理论上长上下文也确实不该是高级功能,本身就该是个模型基础能力。
Claude Code Max 用户(100 刀/月那档)更简单,1M 上下文直接就有,不用加参数,不用多付钱。
顺带还有两件事
|
更新 #1 图片 / PDF 上限 100 → 600 以前一堆 PDF 要手动拆批,现在一次喂进去。我每次写文章要整理十几张截图和参考资料,这个直接省了好几步。 |
更新 #2 Adaptive Thinking 转正式版 模型自己判断什么时候慢想、什么时候直接答,不用你手动配置推理深度。少了一层不必要的决策。 |
Context,Not Control.
AI 工具的进步有两种:模型变聪明,或者把已有的能力真正释放出来。1M 上下文 GA 是后者。但对于长期项目、复杂开发、以及被 compact 搞崩过的人,实际影响不比前者小。
费曼说过,背下来一个公式,和能自己从头推导出来,是两回事,重量完全不同。给模型喂答案,和给它喂能推导出答案的所有信息,也是两回事。后者更难,但结果更靠谱。
上下文窗口,决定了你能给它多少推导所需的信息。之前太小,你得做减法——剪掉那些「可能有用但放不进去」的东西。每次剪,都是在赌这段信息不重要。赌对了没感觉,赌错了,模型就在某个你看不见的地方犯了一个你找不出原因的错。
现在,你完全可以肆无忌惮去给模型投喂任何你觉得它该知道的信息了。
👇这个管理理念不止是在Netflix和字节,在大模型的使用和管理上也越来越有效了
Context,Not Control.
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-03-14
100万上下文全面上线!Claude两款4.6模型取消长文本溢价,支持直塞600张图
2026-03-13
2026年 国内如何注册 Claude 账号教程
2026-03-13
1300 万人围观,龙虾「杀手」来了
2026-03-13
从IDE到Terminal:适合后端宝宝体质的Claude Code工作流|得物技术
2026-03-13
同一个 Claude,为什么别人跑出 78%,你只有 42%?也许你需要Harness工程
2026-03-13
破除偏见:阻碍生成式AI加速落地的认知桎梏
2026-03-12
OpenAI发布GPT-5.4金融套件:顶级数据库首次向普通用户开放
2026-03-12
在树莓派 Zero 上跑一只轻量级的 ZeroClaw 小龙虾
2026-01-24
2026-01-10
2026-01-01
2026-01-26
2025-12-21
2026-01-09
2026-01-09
2025-12-30
2026-01-21
2026-01-23
2026-03-09
2026-03-08
2026-03-03
2026-03-01
2026-02-27
2026-02-27
2026-02-26
2026-02-24