微信扫码
添加专属顾问
我要投稿
深入解读DeepSeek R2的预期发布及其技术前景。 核心内容: 1. DeepSeek R2的预期发布时间与研究员Daya的预测 2. R2相对于R1在RL训练数据和模型表现上的提升 3. DeepSeek的开源策略与未来技术路线图的比较分析
路透今晚报道了DeepSeek可能在5月前发布r2。之前DeepSeek研究员Daya在2月初已经说过:RL还在早期,今年会看“显著进步”(significant progress)
其实在r1论文中也提到过:由于目前RL训练数据还很少,R1的下个版本会大幅提升。
也就是r1论文中的下图,以及论文所述:随着RL数据的增加,模型不仅解决复杂推理任务的能力持续稳定提升,且会自然涌现出一些复杂行为能力,比如“反思”、“探索不同方法”。这些能力不是人类设计,而是随着模型在RL环境中训练,自然涌现的。
粗浅的理解,现在不需要算法上的巨大创新,按照目前路线+更多算力+DS如此强的infra能力,基于目前的V3基座模型,依然可以取得r2/r3。当看到RL提升边际放缓,再基于新的基座V4,继续做RL,进一步推进推理模型提升。也就是下面这张图:(左脚踩右脚示意图)
而参考OpenAI的路线图,o3已经决定不发布完整模型,GPT-4.5也成了最后一个独立发布的基座模型,意味着GPT-5(混合模型)开始,越来越黑盒。说白了,以后无论是基座模型还是推理模型本身,都是“原料”而不是“最终产品”,CloseAI和Anthropic一定会雪藏。
但DeepSeek要做的,就是在别人继续闭源的时候,继续开源。r2应该对标的是o3完整版,而V4至少应该对标GPT-4.5,基于V4+RL的模型,应该对标是未来的所谓“GPT-5”。因此合理预期应该是V4可能会加入多模态能力,但r系列依然是推理模型。且这个过程中,所有的“原料”全部开源,不仅原料开源,按照这次代码五连发,连制造原材料的“配方”都直接开源。
这里面其实没有什么DeepSeek不知道的秘密,甚至在infra层面远超北美很多模型大厂。今天我们在星球讨论的:DeepSeek甚至可能比英伟达更懂如何使用GPU。而所谓Research上的创新,OpenAI o系列的灵感也来自于早已发表的“开源”paper,叠加自己的算力优势和工程探索实现。说到底没人全靠自己闭门造车,都受益于全世界“开源”研究或实践的喂养。
因此说回来,相比于r2,大家反而应该更期待V4,因为这打开了推理模型另一个level天花板,开辟的是另一条全新跑道。r2是时间表上确定的事情,而V4会是一个惊喜。这都会在今年发生。
(完)
今天星球更新了对B200推理r1性能的解读、微软退租的辟谣、港股的交易台、以及下午大摩发的机器人报告(罗列了涨幅最高的20家公司,全球涨幅最高的竟然是那家韩国公司...)
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-04-09
很多人突然不玩小龙虾而用Hermes Agent了。我替你试了,跟小龙虾到底有啥不同?
2026-04-08
开源模型首超Opus4.6!智谱GLM-5.1登场,14小时后CUDA专家被冲了
2026-04-08
探索Agentic生产力:从“被动问答”到“自主分析”
2026-04-08
GLM-5.1 又是开源 SOTA?直接做个图片改字工具验验真假!
2026-04-08
GLM-5.1 开源:零介入,交付整套的 Linux 桌面系统
2026-04-08
DeepSeek 推出快速模式和专家模式
2026-04-07
vLLM v0.19.0 来了,适配 HuggingFace v5,多模态优化,CPU KV 缓存卸载
2026-04-04
Gemma 4开源!整整一年,谷歌终于想明白了!!!
2026-01-30
2026-01-27
2026-01-12
2026-01-29
2026-01-27
2026-01-21
2026-01-28
2026-01-23
2026-01-26
2026-01-26
2026-04-09
2026-04-01
2026-03-17
2026-03-13
2026-03-02
2026-02-05
2026-01-28
2026-01-26