微信扫码
添加专属顾问
我要投稿
Claude两款4.6模型重磅升级,百万上下文免费开放,600张图直塞无压力!核心内容:1. 取消长文本溢价收费,百万Token统一标准定价2. 多模态处理能力提升6倍,单次支持600张图/页3. 自动处理超长请求,代码库/合同文件一键解析
Claude Opus 4.6和Sonnet 4.6的100万上下文终于全面开放。
最核心的变化是,长文本不再加收任何溢价费用。在这两款模型的完整百万窗口内,统统适用标准计费规则。Opus 4.6的百万Token输入输出价格分别为5美元和25美元,Sonnet 4.6则为3美元和15美元。这里不存在任何倍率套路,发起一次90万Token的请求与9千Token的请求,单价完全一致。
随着此次正式版上线,具体迎来了以下核心升级:
首先是计费与速率的全量打通。除了统一的标准定价外,所有上下文长度均享受完整的速率限制,用户的标准账户吞吐量在整个百万窗口内完全适用。
多模态处理能力直接飙升六倍。单次请求支持的图像或PDF页面数量上限从100骤增至600。该功能已在Claude原生平台、微软Azure Foundry以及谷歌云Vertex AI同步可用。
API调用变得更加无缝。超过20万Token的长请求现在会自动处理,不再需要添加Beta测试版请求头。如果开发者原本的代码里包含该测试版请求头,系统也会直接忽略,完全不需要修改现有代码。
针对Claude Code的用户,100万上下文现在已直接内置于Max、Team和Enterprise版本的Opus 4.6中。过去这部分百万级上下文需要消耗额外的使用量,现在Opus 4.6会话会自动调用完整窗口。这大幅减少了上下文的强制压缩次数,让更多的对话记录得以完整保留。
当然,百万级吞吐量的前提是模型能够准确召回细节并进行有效推理。在MRCR v2评测中,Opus 4.6拿下了78.3%的分数,在所有具备同等上下文长度的前沿大模型中位列第一。
这种长文本处理能力带来了最直接的应用改变:开发者现在可以直接把整个代码库、长达几千页的合同文件,或者包含工具调用、观察结果和中间推理步骤的长周期智能体完整运行轨迹,原封不动地交给模型处理。过去处理长文本必须依赖的工程化改造、有损摘要提取以及上下文清理工作,现在统统成为历史,整个交互过程得以原汁原味地保留。
目前,这项100万上下文能力已经可以通过Claude原生平台,以及亚马逊Bedrock、谷歌云Vertex AI和微软Foundry直接使用。Claude Code的高级订阅用户只要切换至Opus 4.6模型,即可默认开启百万上下文体验。
--end--
最后记得⭐️我,每天都在更新:如果觉得文章还不错的话可以点赞转发推荐评论
/...@作者:你说的完全正确(YAR师)
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-03-13
2026年 国内如何注册 Claude 账号教程
2026-03-13
1300 万人围观,龙虾「杀手」来了
2026-03-13
从IDE到Terminal:适合后端宝宝体质的Claude Code工作流|得物技术
2026-03-13
同一个 Claude,为什么别人跑出 78%,你只有 42%?也许你需要Harness工程
2026-03-13
破除偏见:阻碍生成式AI加速落地的认知桎梏
2026-03-12
OpenAI发布GPT-5.4金融套件:顶级数据库首次向普通用户开放
2026-03-12
在树莓派 Zero 上跑一只轻量级的 ZeroClaw 小龙虾
2026-03-11
从“暴力烧Token”到“系统工程”:OpenAI与华为的两条 AI 编程路径
2026-01-24
2026-01-10
2026-01-01
2026-01-26
2025-12-21
2026-01-09
2026-01-09
2025-12-30
2026-01-21
2026-01-06
2026-03-09
2026-03-08
2026-03-03
2026-03-01
2026-02-27
2026-02-27
2026-02-26
2026-02-24