微信扫码
添加专属顾问
我要投稿
马斯克再次出手,揭露Cursor"自研"模型实为Kimi套壳,引发行业震动。 核心内容: 1. Cursor发布"自研"模型被开发者抓包使用Kimi基座 2. 马斯克转发曝光推文引爆舆论,月之暗面团队下场质问 3. 双方最终达成表面"和解",但商业授权疑云未散
3月20日,Cursor发了条推,发布了「自研」的 Composer 2 模型。
配的图显得还挺nb的,显示Composer 2在CursorBench上拿到了61.3%的得分,成本不到Opus 4.6的1/5。言下之意:我们自研了一个又强又便宜的编程模型。
讲道理这个Benchmark就好笑的👇
不过呢,更主要的是,两个半小时后,这个模型的底裤被扯没了。
一个叫Fynn的开发者在调试Cursor的API时,发现返回的模型ID赫然写着:`accounts/anysphere/models/kimi-k2p5-rl-0317-s515-fast`。
翻译成人话,这就是Kimi K2.5,加了一层强化学习微调。连模型名都还没来得及改。
Fynn在X上只有几百个关注者。如果故事到这里就结束,大概率又会像Composer 1那次一样,圈内人嘀咕几句就过去了。
但马斯克看到了。他又出来给Kimi站台了。
73万人看到了这条回复。事情就再也捂不住了。
其实这不是Cursor第一次被扒底裤。
去年10月Composer 1发布时,多国开发者发现生成的代码里频繁出现中文推理痕迹。社区猜测基座是智谱的GLM或者阿里的Qwen。Cursor始终没正面回应,后来悄悄发了个Composer 1.5就翻篇了。
同期被扒的还有Windsurf,不过他们干脆点,直接承认用的是智谱GLM。后来Google花24亿美元挖走了Windsurf的创始团队,Cognition(做Devin那家)2.5亿捡了剩下的壳,而Cognition自己的SWE-1.5也被确认基于GLM-4.6,有开发者通过prompt injection让模型自己「坦白」了。
模式一模一样:拿中国开源模型做基座,加一层微调,包装成自研,不标注来源。
这次月之暗面没忍住。
预训练负责人杜雨伦直接发推确认tokenizer完全一致,@了Cursor创始人质问:为什么不遵守许可证?为什么没有支付任何费用?另外两名月之暗面员工也发帖证实。
但随后,三条帖子都被删了。
最终的结局是体面的「和解」。Cursor联合创始人Aman Sanger发了条长推,承认"Kimi K2.5 proved to be the strongest",说没在博客里标注基座模型是"a miss"。
Kimi官方也转发祝贺,称"很自豪看到Kimi K2.5提供了基础"。
但这个「和解」的画面怎么看都有点怪。
Kimi K2.5的许可证写得很清楚:商业产品月收入超过2000万美元,必须在界面上醒目展示"Kimi K2.5"字样。Cursor的月收入大约1.67亿美元,是这个门槛的8倍多。
是本来就有授权只是忘了标注,还是被抓了才补的协议?外界不得而知。但我们大概能猜到是怎么回事。
许可证争议会过去的。该标注的标注,该补签的补签。
不过我觉得最搞笑的事是:一家估值500亿美元的AI公司,没有自己的模型。
Cursor母公司Anysphere目前估值290亿美元,正在谈一轮新融资,目标500亿。而Kimi上一轮估值是43亿美元。
12倍的落差。
要说AI泡沫的话,至少泡沫还没降临到中国大模型公司头上,这么看来上市后涨了好几倍的智谱和MiniMax也真不算多贵。咱至少都实实在在有自己的大模型训练能力,产品也都做得越来越好了。
硅谷这波用别人的模型,包装成自研技术,支撑「前沿AI实验室」的叙事去融资,就多少有点离谱了。
Cursor在发布Composer 2时只提了"对基座模型的持续预训练加强化学习",全程没有提Kimi K2.5。这两件事技术上并不矛盾,持续预训练和RL本来就是在某个基座模型上做的。但投资人听到的叙事和实际的技术栈之间,差了一个Kimi的距离。
菲茨杰拉德笔下的盖茨比和美国梦的故事,似乎在这一刻又延续上了。用精心编造的身世和永不停歇的盛大派对,让所有人相信他属于那个圈子。直到有人去查了一下他的过去。
连模型名都没改,就像盖茨比书架上那些从未裁开过的书页。
说这些不是要黑Cursor。
我可能是国内最早一批用Cursor的人。也算是吃到了不少Cursor和Vibe Coding的红利。我用它做出了小猫补光灯,这个产品的故事似乎成了不少人的Vibe Coding启蒙。Cursor的线下meetup上,有不少参会者说自己是因为我的内容才开始用Cursor的。
去年初我在即刻上写过:"AI新榜问最好用的AI工具是什么,我认为是Cursor、Cursor以及Cursor。它的IDE产品形态叠加上Claude 3.5 Sonnet模型后,真的让AI编程这件事发生了质的飞跃,让普通人可以破除壁垒,获得coding这一'创造'魔法。"
这句话我到现在也认。Cursor是让AI编程从开发者玩具变成普通人可上手工具的第一个产品。 tab-tab-tab的交互范式、Composer模式、从「辅助补全」到「AI主导编辑」的体验跃升,这些都是Cursor的贡献。
但我现在的主力工具已经不是Cursor了。
Cursor的年化收入刚突破20亿美元。放在任何SaaS公司,这都是炸裂的增长速度。
但你有没有发现,至少在国内,现在讨论AI编程的时候,大家聊的是Claude Code和Codex?
这也不是错觉。Pragmatic Engineer今年初做了一个近千人的开发者调查,结果很说明问题:
46%的开发者把Claude Code评为「最爱」的AI编程工具。Cursor是19%。
不到Claude Code的一半。
Claude Code从发布到拿下第一名,只用了8个月,超越了深耕多年的GitHub Copilot和Cursor。75%的创业公司在用它。年化收入25亿美元,占Anthropic企业客户支出的一半以上。
OpenAI那边也没闲着。Codex桌面应用首周下载量突破100万,周活160万,已经达到Cursor使用量的60%,尽管它存在的时间短得多。
20亿美元的ARR成了一个没人关心的数字。不是因为它不大,是因为大家的注意力已经转移了。
去年底我写过一段话:"去年初到今年中旬,大厂扎堆卷AI IDE,那是Cursor的疯狂增长在那摆着,你不得不做。最近几个月Claude Code起来了,所有大厂又不得不跟进终端命令行类产品。"
当时我还补了一句:"但Claude Code好用的逻辑是他们有模型成本和模型认知的优势,能更无所畏惧地投喂代码上下文烧token。而Cursor是真不行啊,他们为了抠成本需要在工具里融入便宜的和自研的模型。"
现在回看这段话,Kimi K2.5事件完美印证了它。Cursor所谓的「自研模型」,就是拿别人的开源模型加了一层RL。他们不是不想自研,是研不起。训练一个前沿编程模型的成本和在开源模型上微调的成本,差10到100倍。
当赛道够小的时候,产品公司有先发优势。但当这个赛道进入头部模型公司的视野,产品公司就只能让路。
Anthropic有什么?有模型、有开发者生态、有定价权。Claude Code的成本优势不是靠抠出来的,是因为模型就是自己的。
OpenAI有什么?有模型、有ChatGPT的入口、有企业渠道。Codex背后是GPT-5系列,同样不需要从别人那里买基座。
Cursor有什么?一个很棒的IDE体验,和一个从Kimi借来的模型。
这让我有些想起HTC(暴露年龄了)。2011年HTC的市值超过诺基亚,是全球最有价值的手机品牌之一。它的产品确实好,用户体验确实领先。但当iPhone和Android真正成熟后,HTC从巅峰到边缘只用了两三年。
HTC教育了市场,然后被市场教育了。
Cursor的命运可能也差不多。它不会消失,20亿美元ARR的公司不会轻易死掉。但它正在从AI编程的主角,变成配角。
Cursor的故事不是个案。所有建在别人模型上面的AI产品公司,迟早会面对同样的问题。
如果你做的产品,核心价值建立在别人的模型之上,那你的护城河就不是你以为的那条。你的产品体验再好、增长再快,当模型公司决定自己做这件事的时候,你的优势会在几个月内被抹平。
不要在模型公司的必经之路上建城堡。
AI编程就是这样一条必经之路。当Anthropic和OpenAI看到Cursor靠着Claude和GPT做到了20亿美元ARR,他们不可能不动心。Claude Code和Codex不是在跟Cursor竞争同一个市场,它们在重新定义什么叫AI编程。
从「IDE里的补全插件」到「终端里的编程Agent」,这完全不是简单产品迭代,是范式转移可。Cursor赢在了「产品」阶段,但现在进入了「平台」阶段。在平台阶段,有模型的人制定规则。
回到Kimi K2.5这件事。最讽刺的地方在于:当平台公司碾压你的时候,你甚至在用另一个平台公司的模型。
Cursor的Composer 2用的是Kimi K2.5。它在跟Claude Code和Codex竞争的时候,手里的武器是从月之暗面借来的。
盖茨比对面的那盏绿灯,代表的是他永远够不到的东西。对Cursor来说,那盏绿灯叫「自研模型」。
它离得那么近,又那么远。而派对还在继续。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-03-19
MiniMax M2.7 炸场!自己训自己,8 项基准硬刚 GPT-5 和 Opus 4.6
2026-03-17
【淘宝直播数字人互动LLM】告别AI感:基于真人ASR数据的拟人化探索
2026-03-03
罕见!Meta、OpenAI、xAI联合分享了用生产环境提升LLM的最佳实践!
2026-02-13
工具调用准确率从60%飙到95%?我用这个‘解耦微调’把Qwen-7B救活了
2026-02-05
普林斯顿大学RLAnything:AI学会一边学习一边给自己打分
2026-02-04
Agent 越用越聪明?AgentScope Java 在线训练插件来了!
2026-01-30
Oxygen 9N-LLM生成式推荐训练框架
2026-01-29
自然·通讯:如何挖掘复杂系统中的三元交互
2026-01-04
2026-01-18
2026-01-02
2026-01-01
2026-02-04
2026-01-19
2026-01-03
2025-12-30
2026-01-07
2026-01-10
2026-01-02
2025-11-19
2025-09-25
2025-06-20
2025-06-17
2025-05-21
2025-05-17
2025-05-14