微信扫码
添加专属顾问
我要投稿
大语言模型在企业内部知识问答中可能会出现幻觉等问题, 检索增强生成(RAG)是减轻大语言模型幻觉的一种有效手段,那如何评估检索增强生成的结果是否准确? 如何确定RAG产品是否可用,是否有标准可以判断?
RAG智能问答系统介绍:
如何基于向量数据库+LLM(大语言模型)打造企业专属Chatbot?
因此对RAG目前可以使用的评测工具或方法进行调研,从业务角度出发选择合适的评估框架。
01
—
RAGAs
02
—
Trulens
主要根据Query(问题),Response(回答),Context(上下文)从以下几个方面进行评估:
Response 是否跟 query 相关;
Context(召回的知识)是否跟 query 相关;
Response 是否严格基于 Context 作答;
如有提供标准答案,还可以跟标准答案做对比;
groundedness:主要用于检测LLM幻觉,response是否严格基于召回知识产生,找到response中句子在context中存在的证据,评估回复是否基于知识生成;
打分标准:
支持证据:选择与陈述完全相同且未改变的句子,如果没有匹配项,请说“NOTHING FOUND”;
分数:输出一个介于 0 到 10 之间的数字,其中 0 表示没有信息重叠,10 表示所有信息都重叠
answer_relevance:主要用于response相关性评估,找到相关的证据并打分,评估是否跟问题相关;
打分标准:
答案必须与整个问题描述相关才能得到 10 分;
与问题描述完全相关的答案应得到 9 或 10 分;
与问题描述大部分相关的答案应得到 5-8 分,分数越高表示相关性越强;
与问题描述部分相关的答案应得到 2、3 或 4 分,分数越高表示相关性越强;
明确错误的答案应得到 0 分;
context_relevance:主要用于知识召回相关性评估,找到相关性证据并打分,评估召回知识是否跟问题相关;
打分标准:将 0 到 10 之间的数字作为回答,0 表示最不相关,10 表示最相关;
Groundtruth :用于 response 准确性评估,使用已有的测试集标准答案进行对比评估,并打分。
打分标准:根据与正确答案的接近程度,回答只能使用 1 到 10 之间的整数。
03
—
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-01-29
告别黑盒开发!清华系团队开源 UltraRAG:用“搭积木”的方式构建复杂 RAG 流程
2026-01-28
RAG优化不抓瞎!Milvus检索可视化,帮你快速定位嵌入、切块、索引哪有问题
2026-01-28
今天,分享Clawdbot记忆系统最佳工程实践
2026-01-28
Fusion GraphRAG:超越 GraphRAG 的多模态企业级 AI 问答
2026-01-28
Semantic Kernel内存管理系统——为AI注入持久记忆与上下文感知能力
2026-01-28
AgentSkills 揭示的真相:上下文工程走错了三年
2026-01-25
Langgraph从零开始构建第一个Agentic RAG 系统
2026-01-24
大模型在需求分析与设计中的提效实践
2025-12-04
2025-12-03
2025-11-04
2025-11-13
2025-12-02
2025-11-13
2025-11-05
2026-01-15
2025-12-07
2025-11-06
2026-01-19
2026-01-12
2026-01-08
2026-01-02
2025-12-23
2025-12-21
2025-12-10
2025-11-23