微信扫码
添加专属顾问
我要投稿
在Llamaindex的全栈项目分享会上,我多次提到要优先使用RAG,尽量不要微调或增量,大规模的+数据质量错位的,微调+增量技术,不靠谱,很难收到结果!
在会议末尾讲了一下什么情况下用RAG,也分享了一些RAG的坑和经验,刚刚不想让会议显得太长,我这里再补充一下:
重申技术背后:
RAG技术是通过从外部来源检索信息,将内容添加到提示中,然后调用LLM!
目标是为模型提供其参数化上下文(或基本知识)中可能没有的信息。
存在问题与经验:
① 交互问题
通常需要三四轮对话才能理解客户的问题,因为一开始消息没有深入,都是客套话!没用!
当然,可以设置马上开始检索,但!过早检索数据时,检索的文本没有足够上下文,是很容易检索到垃圾信息的,除非你可以一条提示词,办完事!否则,这时,大模型的注意力集中在错误内容上,降低了生成的准确度!
② 尝试优化想法
基于以上,我们设计了一个确定对话意图过程,然后切换到对应+专门的RAG提示词!有效,但很呆!
③ 最终方案
我们需要多个提示词和状态来模拟对话!基于以上的升级!
LLM Agent(带工具)
与一组操作(工具)配对的提示词
在对话过程中,提示可以返回一个响应,指示应该调用一个带有参数的操作
例如:管理代理的软件执行该操作(“调用baidu.com”)并将结果作为新消息返回到提示词。使用新结果继续与用户进行对话!
④ RAG有两种模式的
第一种:静态,使用提示词和已向量的数据,检索交互
第二种:动态,一边交互,一边把交互内容,生成搜索词,会呼吸的RAG,实现自主更新!提高生成质量!
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-02-06
RAG 落地全干货深度分享:从“效果不理想”到生产级 RAG 系统的进化之路
2026-02-06
效率神器 Claude-Mem:终结 AI “金鱼记忆”!自动保存上下文、可视化记忆流,开发体验提升 10 倍!
2026-02-06
告别“伪智能”代码:用 Spec + RAG 打造真正懂你的AI程序员
2026-02-05
向量,向量化,向量数据库和向量计算
2026-02-05
从 RAG 到 Agentic Search,一次关于信任 AI 判断的认知升级
2026-02-04
Claude Cowork 真能替换 RAG ?
2026-02-03
使用 Agent Skills 做知识库检索,能比传统 RAG 效果更好吗?
2026-02-03
告别向量数据库!PageIndex:让AI像人类专家一样阅读长文档
2025-12-04
2025-12-03
2025-11-13
2025-12-02
2025-11-13
2026-01-15
2026-01-02
2025-12-23
2025-12-07
2025-12-18
2026-02-04
2026-02-03
2026-01-19
2026-01-12
2026-01-08
2026-01-02
2025-12-23
2025-12-21