微信扫码
添加专属顾问
我要投稿
还在纠结RAG和微调怎么选?这篇实战笔记帮你理清思路,避免踩坑! 核心内容: 1. 微调与RAG的核心区别与应用场景解析 2. 三种微调方式(CPT/SFT/DPO)的实战选择策略 3. 必须使用微调的三大垂直场景与效率需求
现在很多AI科普文章都会提到微调,RAG。
但是没有实战的过的同学可能会问🤔——
啥时候用RAG?啥时候用微调呢?有啥区别?不都是让模型增加知识面的吗?
今天我们就对这个问题进行粗略归类——
你可以简单理解为在预训练之后(预训练你可以简单理解成自监督学习,得到一堆参数但是还不会自己回答)
——进行的一些QA对训练,来教会模型组织语言,回答问题。
但是要注意微调是没有对知识样本做扩充的,扩充还是通过预训练完成的。
微调之后才是基于人类反馈的强化学习。
简单说就是预训练👉微调👉强化学习,微调是中间这个环节。
1、继续预训练-CPT:来增加知识、能力。补充模型在特定领域的缺陷。
2、微调训练-SFT:给模型更多的QA对,来增强模型的依从性。常用于垂直大模型。这是现在最主要的方式。
3、偏好调优-DPO:用负反馈优化输出,让模型知道不能干啥,啥是错的。
但是没事也不用微调,不要听到别人说微调自己也想微调……有很多已经调好的,可以去百炼云上看😂我之前也写了一篇可以体验简版流程,实际比这个难n倍。零基础也能体验模型微调!魔塔+LLaMa Factory手把手教程
优先级可以按照提示词大于RAG大于微调。
1、针对特定行业/领域,如果模型根本就不具备特定知识,你可以用继续预训练-CPT。只不过数据上很多是1500万字起步(下一篇推送会讲讲微调的数据质量要求有多可怕)
2、针对特定问题,微调训练-SFT可以用RAG、提示词、示例来做一些代替。因为SFT对数据质量要求要比RAG高,可以选择不那么折腾直接上RAG
3、至于偏好调优-DPO,你可以选择用提示词示例。因为错误答案本身就对数据的要求更多了。你要枚举多少回答来让模型记住啥是错的?
再好的提示词都有输出上的出入,如果是垂直指定的问题,你要求它回答的丁是丁卯是卯,那还是用微调最好。特别是金融和医疗。
1、比如在履职问题测评中,你需要对问题做严格分类,查询特定的数据库,也可能涉及到指定的关键词。说白了就是场景足够垂直。
2、高并发任务、对效率要求极高的场景,可以通过微调加速响应。
比如对即时主观题打分,就会需要快速响应来适应考试节奏等。
3、特别是端侧,很多服务都需要云端判断,对定向场景需要的就是速度和准确度,离不开微调。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-02-24
当软件不值钱了以后,最稀缺的资源是什么?
2026-02-24
OpenAI Codex负责人:我们熟悉的编程方式正在终结 | Jinqiu Select
2026-02-24
OpenClaw 最佳实践:5条“基本原则”
2026-02-24
春节归来第一天,Second Me 做了一个「Agent 互联网的 App Store」
2026-02-24
万字深度解读 MCP Apps:重构 Web 应用,开启 AI 助手的“小程序”时代。
2026-02-24
AI Agent系列|什么是 ReAct Agent?
2026-02-24
刚刚,Anthropic深夜大点名,这三家中国公司进行蒸馏攻击?!
2026-02-23
Claude Code如何突破白领工业革命
2026-01-24
2026-01-10
2026-01-01
2026-01-26
2025-12-09
2026-02-03
2025-12-21
2026-01-09
2026-01-09
2026-01-27
2026-02-24
2026-02-24
2026-02-20
2026-02-14
2026-02-13
2026-02-12
2026-02-12
2026-02-11