微信扫码
添加专属顾问
我要投稿
RFT在应用层的潜力仍被低估,尤其适合大规模组织的AI解决方案。核心内容: 1. RFT实践成功率低的原因分析 2. RFT在大规模组织中的独特价值 3. 前沿模型厂对RL post-training的最新进展
一篇短文,刷新一下观点的有效期,没有新的观点。
我在2025年Q1有一系列文章讨论我当时在RFT上的实践,和我对于RFT价值的看法。
之后由于我跑去做别的了,所以没有再提RFT这边。但这并不代表说我不看好RFT了。
目前整个应用层对于RFT的实践仍然似乎成功率不高,不过这更多是由于其infra要求更高,以及试用问题选择需要的认知更多,需要调节的超参数更多了。门比SFT窄得多。
但作为目前少有的几大方案,RFT仍然是我们无法无视的,特别是对于一些比较大的组织,(这里的比较大是指单个BU内,单一细分岗位有100人以上的规模)。不过确实对于这种规模组织来说,如何获得第一个成功案例是比较难的,但他们也有钱可以去买一个教学案例。
我目测RFT被低估这个判断的有效期还能持续1年。
从LLM模型的用户角度观察,目前海外前沿模型厂对于RL post-training的调教已经进入了第二阶段,优化了reasoning token数。有安全报告说明GPT-5模型的思考过程已经开始出现非人话的情况,这都是(暴力)压缩reasoning token的副作用。
Agent构建平台" data-itemshowtype="0" linktype="text" data-linktype="2">RFTaaS有望成为第一种通用Agent构建平台
如果希望和我交流讨论,或参与相关的讨论群,或者建立合作,请加微信,联系方式请点击 -> 专栏简介 及 联系方式 2024。
本文于2025.11.5 首发于微信公众号。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-11-06
RAG已经过时了?试试CAG,缓存增强生成技术实战大揭秘!
2025-11-06
Zero-RAG,对冗余知识说“不”
2025-11-05
从 RAG 到 Agentic RAG,再到 Agent Memory:AI 记忆的进化三部曲
2025-11-05
万字详解Naive RAG超进化之路:Pre-Retrieval和Retrieval优化
2025-11-05
别只调模型!RAG 检索优化真正该测的,是这三件事
2025-11-04
大模型生态的“不可能三角”:规模化应用的架构困境?
2025-10-31
Dify知识库从Demo到生产:RAG构建企业级私有知识库的7个关键步骤
2025-10-31
RAGFlow 深度介绍
2025-09-15
2025-09-02
2025-08-18
2025-08-25
2025-08-25
2025-08-25
2025-09-03
2025-09-08
2025-08-20
2025-08-28
2025-11-04
2025-10-04
2025-09-30
2025-09-10
2025-09-10
2025-09-03
2025-08-28
2025-08-25