微信扫码
添加专属顾问
我要投稿
Anthropic发布Claude 4系列模型,引领AI编程和Agent基建新突破。核心内容:1. Claude Opus 4和Sonnet 4的SWE-bench成绩超越Google Gemini 2.5 Pro2. 四大核心改进提升Agent基建能力,包括扩展思维、记忆能力、指令遵循和减少奖励黑客行为3. Anthropic聚焦AI编程模型,相比Google和OpenAI更具优势
这两个模型的出现,让Gemini 2.5 Pro还没坐热的AI编程模型头把交椅位置再次易主。
一、最好的编程模型
Claude Opus 4 被(Anthropic)称为"世界上最好的编程模型",在编程评测基准SWE-bench上达到了72.5%的成绩,这是个最值得关注和信任和评估模型在真实世界的软件工程方面表现的评测集。而在Terminal-bench上达到43.2%。更重要的是,它能够持续工作数小时而不掉链子,这对于复杂的、需要多步骤的编程任务来说是个重大突破。
Claude Sonnet 4 相比之前的Sonnet 3.7有了显著提升,在SWE-bench上甚至比Opus 4还略高,达到72.7%。虽然在大多数领域不如Opus 4强大,但它在性能和效率之间找到了最佳平衡点,可以认为是最适合用于日常编程任务的模型。
除了模型的智能之外,Anthropic这次更新主要在四个方面有重大改进,而这四个方面的能力改进都直指一个核心——更好的Agent能力:
扩展思维与工具使用(Extended Thinking with Tool Use) 这是个测试版功能,允许Claude在思考和使用工具之间来回切换。比如分析数据时,Claude会先思考策略,然后运行代码查看数据结构,再思考下一步该怎么分析,形成一个"思考-执行-再思考"的循环。
改进的记忆能力 这个功能对长时间任务特别重要。Claude Opus 4现在可以创建和维护"记忆文件"来存储关键信息。Anthropic甚至让Claude玩了12小时的宝可梦游戏来测试这个功能,Claude能够记住训练计划并持续64场战斗来升级宝可梦,展现了出色的长期专注能力。
更强的指令遵循能力 Claude 4在处理复杂、冗长的系统提示方面有了显著提升,可以处理超过10000个token的指令。这个改进让Anthropic自己的系统提示长度减少了70%。
减少奖励黑客行为(Reward Hacking) 所谓奖励黑客行为就是模型为了达到目标而走捷径,比如硬编码测试或者注释掉错误代码。Claude 4在这方面的倾向降低了80%以上,这意味着你可以更信任它会用正确的方法解决问题。
跟Claude 3.7一样,Claude 4系列都是混合推理模型,提供两种工作模式:
即时响应模式:几秒内给出回答,适合常规任务
深度思考模式:花更多时间思考,适合复杂问题
价格相比之前的Claude 3.5模型维持不变:
Opus 4:$15/$75 每百万token(输入/输出)
Sonnet 4:$3/$15 每百万token
两个模型都已经在Anthropic API、Amazon Bedrock和Google Cloud的Vertex AI上可用。免费用户也可以在Claude官网使用Sonnet 4(如果你没被封禁的话),付费用户可以使用两个模型和深度思考功能。当然,你也已经可以在Cursor上使用这两个模型了。
除了模型本身,Anthropic还发布了几个重要的周边更新:
Claude Code正式版:之前是研究预览版,现在正式发布,支持VS Code和JetBrains集成,还可以通过GitHub Actions在后台运行。不过我觉得这个工具暂时还是不可能比Cursor更好用,还是个更适合少数迎合开发者的小工具。
并行工具调用:Claude现在可以同时调用多个工具,提高效率。
新API能力:包括代码执行工具、MCP连接器、Files API,以及可以缓存提示长达一小时的功能。
Cursor跟Claude现在绑定得确实够深的,在Claude4发布当下就直接接入了对应的模型。而且现在Cursor中有4个Claude4模型可选,分别是Claude Sonnet 4、Claude Sonnet 4 thinking、Claude Opus 4、Claude Opus 4 thinking可选。
我用我?这篇文章中的生成app原型的提示词对Claude 4 Sonnet、Claude 3.7 Sonnet、Gemini 2.5 Pro模型做了测试
Claude 4 Sonnet?
Claude 3.7 Sonnet?
Gemini 2.5 Pro?
这结果差距太明显了,我都觉得没什么好评价的。但现实确实是:
Gemini 2.5 Pro虽然在LMArena等部分编程能力排行榜上排名不错,除了复杂长代码的表现偶尔不错,但是对指令的理解和遵从能力相比Claude还是差了些,视觉审美也比较糟糕,常常会有莫名其妙的表现。
Claude 3.7 已经很不错了,但Claude Sonnet 4则完全是惊艳的水平,相比3.7而言,4的原型细节内容更丰富,比如收听过和没收听过的红点,订阅节目和收听节目的汇总信息等,甚至播放器页面的封面图还是可以旋转的(很遗憾在图片上看不出来)。
Claude Opus 4我也尝试做了些测试,但是生成几次后就遇到了一些模型访问次数的问题,似乎现在Opus的服务器资源还不太够。但是从评分以及我仅有的部分体验看,普通编程任务的表现和Sonnet并无差异。
以我的经验来说,我建议选择如下:
Claude Sonnet 4 :最推荐的日常编程选择,在评估编程能力的指标SWE Bench评分上比Opus更高,经验上来说,比带thinking的模型表现更稳定更好,因为大多数任务你并不需要模型overthinking的。
Claude Sonnet 4 thinking:推荐在解决bug或进行项目规划的时候使用,毕竟在面对复杂问题时,你希望模型和人类一样,启动系统二,先做一些思考再做出审慎的回答。
Claude Opus 4和Claude Opus 4 Thinking:Opus是比Sonnet更大的模型,在非编程的数学、推理等任务上比Sonnet模型更好,也更贵。尤其在Cursor中是需要启用Max模式,也就是每一次回答都需要单独计费的。但是在常规的编程任务表现上并没有显著优于Sonnet模型,它相对更适合上下文长度非常多的大型复杂项目,或者重构项目。不过如果你不只是拿Cursor去编程,而是还用Cursor当写作工具的话,我觉得你可以适当尝试下。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-08-13
2024-06-13
2024-08-21
2024-09-23
2024-07-31
2024-05-28
2024-08-04
2024-04-26
2024-07-09
2024-09-17
2025-05-23
2025-05-18
2025-05-18
2025-05-17
2025-05-13
2025-05-13
2025-05-12
2025-05-11