微信扫码
添加专属顾问
我要投稿
Agentic RAG技术如何提升检索增强生成效果?本文详解查询重写、多路召回等关键优化策略。核心内容:1. Agentic RAG的核心流程与优化思路2. 关键技术选型与框架对比分析3. 实际项目中的查询优化实践案例
RAG(Retrieval-Augmented Generation,检索增强生成)是一种将 检索技术与 生成式 AI结合的技术框架。
其核心流程包括:
存储阶段:对输入文档进行清洗、分块等预处理,并存入知识库;
查询阶段:接收查询请求后,通过检索系统获取候选结果,再交由生成式 AI 处理,输出逻辑性更强、可读性更好的答复。
在实际应用中,单纯的 RAG 系统往往存在 查询质量不高、手段单一、鲁棒性不足等问题。于是,业内逐渐探索出结合 Agent 思路的 Agentic RAG实践,用来提升 RAG 系统的查询质量与效率。
Agentic RAG 的核心是引入 查询重写、多路召回、路由决策、质量评估、多步重查等操作,对整个检索-生成链路进行优化。在不引入额外新技术的前提下,仅通过对输入问题与检索策略的智能化控制,就能显著增强查询系统的鲁棒性与准确性。
可以说,Agentic RAG 是 RAG 与 Agent 结合的最佳实践,不仅能指导 RAG 系统的开发,也能对已有 RAG 应用流程设计提供参考。
本文结合我近期完成的 Agentic RAG 实践项目,分享其中的 Agent 设计思路、关键流程和部分代码实现,帮助大家对这类系统架构有一个整体认识。
结合近半年业内出现的 Agentic RAG 的最佳实践,开发一个 Agent + RAG 原型系统,完成基于知识库的查询任务。
目标拆解如下:
1. 查询前:对用户输入进行 查询重写,优化问题质量(关键词提取、规范表述、信息补全)。
2. 查询中:采用 多路召回策略(关键词、向量、融合排序),提高命中率与相关性。
3. 查询后:对候选结果进行 质量评估;若结果不足,再触发互联网搜索。
4. 结果生成:将查询结果交由 LLM 理解与重组,生成 语义完整、逻辑性更高、可读性更强的最终回复。
While the standard Workflow Agents (SequentialAgent, LoopAgent, ParallelAgent) cover common orchestration patterns, you'll need a Custom agent when your requirements include:
Conditional Logic
Complex State Management
External Integrations
Dynamic Agent Selection
https://google.github.io/adk-docs/agents/custom-agents/#what-is-a-custom-agent
《中华人民共和国个人信息保护法》第一条规定,为了保护个人信息权益,规范个人信息处理活动,促进个人信息合理利用,根据宪法,制定本法。
《中华人民共和国个人信息保护法》第二条规定,自然人的个人信息受法律保护,任何组织、个人不得侵害自然人的个人信息权益。
《中华人民共和国个人信息保护法》第三条规定,在中华人民共和国境内处理自然人个人信息的活动,适用本法。在中华人民共和国境外处理中华人民共和国境内自然人个人信息的活动,有下列情形之一的,也适用本法:(一)以向境内自然人提供产品或者服务为目的;(二)分析、评估境内自然人的行为;(三)法律、行政法规规定的其他情形。
《中华人民共和国个人信息保护法》第四条规定,个人信息是以电子或者其他方式记录的与已识别或者可识别的自然人有关的各种信息,不包括匿名化处理后的信息。个人信息的处理包括个人信息的收集、存储、使用、加工、传输、提供、公开、删除等。
《中华人民共和国个人信息保护法》第五条规定,处理个人信息应当遵循合法、正当、必要和诚信原则,不得通过误导、欺诈、胁迫等方式处理个人信息。
```
用户查询 → 查询重写 → 智能检索 → 质量评估 → 条件分支决策
↓
PASS ──→ 直接答案生成
↓
FAIL ──→ 网络搜索 → 结果融合 → 最终答案生成
```
### 工作流程详解
#### 阶段1: 查询重写 (`QueryRewriterAgent`)
- 分析用户查询的法律领域和复杂度
- 提取核心法律概念和关键词
- 规范法律术语表述,生成多个查询变体
#### 阶段2: 智能检索 (`LocalRetriever`)
- **查询类型分析**:自动识别精确查询、语义查询或混合查询
- **多路径检索**:
- 向量搜索(BGE-M3嵌入模型)
- 关键词搜索(基于jieba分词)
- RRF融合(Reciprocal Rank Fusion)
- **Cross-Encoder重排序**:精确优化检索结果排序
#### 阶段3: 质量评估 (`QualityEvaluatorAgent`)
- **4维度评估**:相关性、完整性、准确性、覆盖面(各10分)
- **80%阈值判断**:总分≥32分为PASS,否则为FAIL
- **详细分析**:提供质量分析报告和改进建议
#### 阶段4: 条件分支决策 (`ConditionalWorkflowAgent`)
- **直接路径**(质量≥80%):基于本地检索结果直接生成专业法律咨询
- **补救路径**(质量<80%):
1. 触发SerpAPI网络搜索
2. 融合本地和网络搜索结果
3. 生成综合性法律建议(确保用户始终获得回复)
### 核心组件
#### 检索层
- **LocalRetriever**: 智能多路径检索引擎
- BGE-M3嵌入模型 + FAISS向量索引
- jieba中文分词 + 关键词检索
- RRF融合算法 + Cross-Encoder重排序
- 查询类型自动识别(精确/语义/混合)
#### Agent层
- **QueryRewriterAgent**: 查询优化和关键词提取
- **QualityEvaluatorAgent**: 4维度质量评估(相关性、完整性、准确性、覆盖面)
- **AnswerGeneratorAgent**: 基于质量阈值的智能答案生成
- **WebSearchAgent**: SerpAPI网络搜索补救机制
#### 工作流控制层
- **ConditionalWorkflowAgent**: 条件分支工作流控制器
- 智能路径选择逻辑
- 质量评估结果解析
- 网络搜索触发机制
- 结果融合和最终答案生成
```
agentic_rag/
├── agentic_rag/ # 核心包
│ ├── __init__.py # ADK导出接口
│ ├── agent.py # 条件分支工作流Agent(主入口)
│ ├── retriever.py # 智能多路径检索器
│ ├── query_rewriter.py # 查询重写Agent
│ ├── quality_evaluator.py # 质量评估Agent
│ ├── answer_generator.py # 答案生成Agent
│ ├── web_search.py # SerpAPI网络搜索Agent
│ └── config.py # 配置管理
├── data/ # 数据目录
│ ├── vectors.index # FAISS向量索引
│ ├── texts.pkl # 文本数据
│ └── metadatas.pkl # 元数据
├── chinese_law.txt # 法律条文数据源
├── init_index.py # 索引初始化脚本
├── clean_index.py # 索引清理脚本
├── download_models.py # 模型下载脚本
├── requirements.txt # 依赖包
```
class ConditionalWorkflowAgent(BaseAgent):
"""
条件工作流Agent - 实现带有条件分支的法律RAG工作流
工作流程:
1. 查询重写
2. 本地检索
3. 质量评估
4. 条件分支:
- 质量达标 → 直接生成答案
- 质量不达标 → 触发互联网搜索 → 生成增强答案
"""
def __init__(self,
name: str = "ConditionalWorkflowAgent",
description: str = "支持条件分支的智能法律咨询工作流",
**kwargs):
# 初始化所有子Agent
query_rewriter = query_rewriter_agent
retrieval_agent = get_retrieval_agent()
quality_evaluator = quality_evaluator_agent
answer_generator = answer_generator_agent
web_search_agent_instance = web_search_agent
# 构建sub_agents列表
sub_agents = [
query_rewriter,
retrieval_agent,
quality_evaluator,
answer_generator,
web_search_agent_instance
]
super().__init__(
name=name,
description=description,
sub_agents=sub_agents,
**kwargs
)
@override
async def _run_async_impl(
self, ctx: InvocationContext
) -> AsyncGenerator[Event, None]:
"""执行条件工作流的核心逻辑"""
try:
# 阶段1: 查询重写
logger.info(f"[{self.name}] 阶段1: 执行查询重写...")
async for event in self.query_rewriter.run_async(ctx):
logger.debug(f"[{self.name}] 查询重写事件: {event.model_dump_json(indent=2, exclude_none=True)}")
yield event
rewritten_query = ctx.session.state.get("rewritten_query", "")
if not rewritten_query:
logger.error(f"[{self.name}] 查询重写失败,中止工作流")
return
logger.info(f"[{self.name}] 查询重写完成: {rewritten_query}")
# 阶段2: 本地检索
logger.info(f"[{self.name}] 阶段2: 执行本地检索...")
async for event in self.retrieval_agent.run_async(ctx):
logger.debug(f"[{self.name}] 检索事件: {event.model_dump_json(indent=2, exclude_none=True)}")
yield event
retrieval_results = ctx.session.state.get("retrieval_results", [])
if not retrieval_results:
logger.error(f"[{self.name}] 本地检索失败,中止工作流")
return
logger.info(f"[{self.name}] 本地检索完成,获得 {len(retrieval_results)} 个结果")
# 阶段3: 质量评估
logger.info(f"[{self.name}] 阶段3: 执行质量评估...")
async for event in self.quality_evaluator.run_async(ctx):
logger.debug(f"[{self.name}] 质量评估事件: {event.model_dump_json(indent=2, exclude_none=True)}")
yield event
# 解析质量评估结果
quality_evaluation = ctx.session.state.get("quality_evaluation", "")
quality_score, quality_passed = self._parse_quality_evaluation(quality_evaluation)
# 将解析结果存储到session state中
ctx.session.state["quality_score"] = quality_score
ctx.session.state["quality_passed"] = quality_passed
logger.info(f"[{self.name}] 质量评估完成: 分数={quality_score}, 通过={quality_passed}")
# 阶段4: 条件分支决策
# 使用quality_passed作为主要判断依据,它已经基于80%阈值进行了判断
if quality_passed:
# 直接路径:质量达标,直接生成答案
logger.info(f"[{self.name}] 选择直接路径: 质量达标,直接生成答案")
# 设置空的网络搜索结果,确保模板变量存在
ctx.session.state["web_search_results"] = "无网络搜索结果"
async for event in self.answer_generator.run_async(ctx):
logger.debug(f"[{self.name}] 答案生成事件: {event.model_dump_json(indent=2, exclude_none=True)}")
yield event
# 确保有最终答案 - answer_generator的output_key是"final_answer"
final_answer = ctx.session.state.get("final_answer", "")
if final_answer:
logger.info(f"[{self.name}] 直接路径完成,生成最终答案")
else:
ctx.session.state["final_answer"] = "抱歉,无法生成满意的答案。"
logger.warning(f"[{self.name}] 直接路径答案生成失败,使用默认回复")
else:
# 补救路径:质量不达标,触发互联网搜索
logger.info(f"[{self.name}] 选择补救路径: 质量不达标,触发互联网搜索")
# 4a. 执行网络搜索
logger.info(f"[{self.name}] 阶段4a: 执行网络搜索...")
async for event in self.web_search_agent.run_async(ctx):
logger.debug(f"[{self.name}] 网络搜索事件: {event.model_dump_json(indent=2, exclude_none=True)}")
yield event
web_results = ctx.session.state.get("web_search_results", [])
logger.info(f"[{self.name}] 网络搜索完成,获得 {len(web_results)} 个结果")
# 4b. 直接使用增强答案Agent处理本地+网络结果
logger.info(f"[{self.name}] 阶段4b: 使用本地和网络结果生成最终答案...")
# 设置双数据源输入供answer_generator使用
ctx.session.state["web_search_results"] = web_results if web_results else "无网络搜索结果"
# 使用answer_generator处理本地+网络结果
async for event in self.answer_generator.run_async(ctx):
logger.debug(f"[{self.name}] 答案生成事件: {event.model_dump_json(indent=2, exclude_none=True)}")
yield event
# 确保有最终答案
if not ctx.session.state.get("final_answer"):
ctx.session.state["final_answer"] = "基于现有信息,我尽力为您提供法律建议,但建议您咨询专业律师获取更准确的意见。"
logger.warning(f"[{self.name}] 答案生成失败,使用默认回复")
else:
logger.info(f"[{self.name}] 补救路径完成,生成最终答案")
logger.info(f"[{self.name}] 条件分支工作流执行完成")
# 查询重写Agent
query_rewriter_agent = LlmAgent(
name="QueryRewriterAgent",
model=LiteLlm(model="deepseek/deepseek-chat"),
instruction="""你是查询重写专家。优化用户的法律查询,提高检索效果。
重写策略:
1. 提取核心法律概念和关键词
2. 规范法律术语表述
3. 补充相关法律领域信息
4. 生成多个查询变体以提高召回率
输出格式:
**优化后的查询**
主查询:[优化后的主要查询]
备选查询:
- [变体1]
- [变体2]
- [变体3]
**关键词提取**
- 法律领域:[领域]
- 核心概念:[概念1, 概念2, ...]
- 法条类型:[实体法/程序法/...]""",
description="重写和优化用户查询以提高检索效果",
output_key="rewritten_query",
generate_content_config=types.GenerateContentConfig(
temperature=0.1,
top_p=0.8,
max_output_tokens=1024,
)
)
def keyword_search(self, query: str, top_k: int = 10, k1: float = 1.5, b: float = 0.75) -> List[Dict[str, Any]]:
"""
BM25关键词搜索
Args:
query: 查询文本
top_k: 返回结果数量
k1: BM25参数k1
b: BM25参数b
Returns:
搜索结果列表
"""
# 对查询进行相同的分词和过滤处理
query_tokens = list(jieba.cut(query, cut_all=False))
# BM25公式
numerator = tf * (k1 + 1)
denominator = tf + k1 * (1 - b + b * doc_length / self.avg_doc_length)
score += idf * numerator / denominator
# 按分数排序
scores.sort(key=lambda x: x[1], reverse=True)
# 生成查询向量
query_vector = self.embedding_model.encode([query], normalize_embeddings=True)
query_vector = np.array(query_vector).astype('float32')
# FAISS搜索
scores, indices = self.index.search(query_vector, top_k)
# 构建结果
results = []
for score, idx in zip(scores[0], indices[0]):
if idx < len(self.texts):
results.append({
'text': self.texts[idx],
'metadata': self.metadatas[idx],
'score': float(score),
'index': int(idx) # 添加索引字段以便融合时匹配
})
# 按融合分数排序
sorted_docs = sorted(doc_scores.items(), key=lambda x: x[1], reverse=True)
# 构建最终结果
final_results = []
for i, (doc_id, fused_score) in enumerate(sorted_docs[:top_k]):
info = doc_info[doc_id]
result = {
'text': info['text'],
'metadata': info['metadata'],
'score': fused_score,
'vector_score': info['vector_score'],
'keyword_score': info['keyword_score'],
'index': info['index'],
'search_type': 'hybrid'
}
# 质量评估Agent(含80%阈值判断)
quality_evaluator_agent = LlmAgent(
name="QualityEvaluatorAgent",
model=LiteLlm(model="deepseek/deepseek-chat"),
instruction="""你是检索质量评估专家。评估检索结果质量并进行阈值判断。
**检索结果:**
{retrieval_results}
**评估维度(每项10分):**
1. **相关性**:检索结果与用户查询的匹配程度
2. **完整性**:是否包含足够信息回答用户问题
3. **准确性**:法律条文的准确性和权威性
4. **覆盖面**:结果的多样性和全面性
**评估标准:**
- 9-10分:优秀,完全满足要求
- 7-8分:良好,基本满足要求
- 5-6分:一般,部分满足要求
- 3-4分:较差,勉强相关
- 1-2分:很差,基本不相关
- 0分:完全不相关或无结果
**输出格式:**
## 质量评估报告
**评分详情:**
- 相关性:[X]/10分 - [评估理由]
- 完整性:[X]/10分 - [评估理由]
- 准确性:[X]/10分 - [评估理由]
- 覆盖面:[X]/10分 - [评估理由]
**总分:[X]/40分 (百分比: [X]%)**
**阈值判断:**
- 判断结果:[PASS/FAIL]
- 判断依据:总分≥32分(80%)为PASS,否则为FAIL
**质量分析:**
[详细分析检索质量的优缺点]""",
description="评估检索质量并进行80%阈值判断",
output_key="quality_evaluation",
generate_content_config=types.GenerateContentConfig(
temperature=0.1,
top_p=0.8,
max_output_tokens=1536,
)
)
def web_search_tool(query: str, max_results: int = 5) -> str:
"""执行互联网搜索并返回格式化结果"""
try:
from serpapi import GoogleSearch
# 获取API密钥
api_key = os.getenv('SERPAPI_API_KEY')
if not api_key:
return "错误:未设置SERPAPI_API_KEY环境变量"
# 配置搜索参数 - 基于SerpAPI文档样例
params = {
"engine": "google_light",
"q": query,
"location": "China", # 可选:搜索地理位置
"google_domain": "google.com",
"hl": "zh-cn", # 界面语言:中文
"gl": "cn", # 搜索地区:中国
"api_key": api_key
}
# 执行搜索
search = GoogleSearch(params)
results = search.get_dict()
# 答案生成Agent(基于阈值判断)
answer_generator_agent = LlmAgent(
name="AnswerGeneratorAgent",
model=LiteLlm(model="deepseek/deepseek-chat"),
instruction="""你是专业法律咨询顾问。基于质量评估结果和可用数据源生成专业法律建议。
**质量评估结果:**
{quality_evaluation}
**本地检索结果:**
{retrieval_results}
**网络搜索结果(如有):**
{web_search_results}
**生成规则:**
1. **如果质量评估为PASS**:
- 优先基于本地检索结果生成专业法律咨询
- 提供具体的法条引用和解释
- 给出实用的建议和注意事项
2. **如果质量评估为FAIL但有网络搜索结果**:
- 融合本地检索和网络搜索结果
- 优先使用本地法条,网络信息作为补充
- 智能去重,按权威性排序:法条 > 司法解释 > 案例 > 专家观点
3. **如果质量评估为FAIL且无网络结果**:
- 输出标准回复,不生成具体法律建议
- 建议用户重新描述问题或咨询专业律师
**PASS时的输出格式:**
# 法律咨询意见
## 问题分析
[基于检索结果分析用户问题]
## 相关法条
[引用具体法条和条文内容]
## 法律解释
[解释相关法条的含义和适用]
## 建议措施
[提供具体的行动建议]
**适用条件:**
[说明适用的具体情况]
**注意事项:**
[重要提醒和建议]
**免责声明:**
本咨询基于现有法律条文,具体适用需结合实际情况,建议咨询专业律师。
**融合多数据源时的输出格式:**
# 法律咨询意见
## 问题分析
[基于本地和网络结果分析用户问题]
## 相关法条
[优先引用本地法条和条文内容]
## 法律解释
[解释相关法条的含义和适用,网络信息作为补充]
## 建议措施
[提供具体的行动建议]
**适用条件:**
[说明适用的具体情况]
**注意事项:**
[重要提醒和建议]
**免责声明:**
本咨询基于现有法律条文和公开信息,具体适用需结合实际情况,建议咨询专业律师。
**FAIL时的输出格式:**
很抱歉,根据您的问题描述,我无法找到足够准确的法律条文来提供专业建议。
建议您:
1. 重新详细描述您的具体情况
2. 咨询专业律师获得准确的法律意见
3. 联系相关法律援助机构
如需进一步帮助,请提供更多具体信息。""",
description="基于质量阈值判断生成专业法律咨询答案",
output_key="final_answer",
generate_content_config=types.GenerateContentConfig(
temperature=0.1,
top_p=0.8,
max_output_tokens=2048,
)
)
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-08-24
对话式 RAG:让你的问答应用更“聪明”
2025-08-23
大模型应用开发之RAG基本原理
2025-08-23
从 EchoLeak 到 AgentFlayer:RAG 系统面临的间接 Prompt 注入威胁与防御
2025-08-23
数据"烹饪"艺术:如何为RAG系统准备完美食材
2025-08-23
Passage Injection:让RAG系统在噪声数据中仍保持清醒的推理能力
2025-08-23
RAG关键技术:向量+标量混合检索
2025-08-23
RAG关键技术:问题改写(Query Rewriting/Transformation)
2025-08-23
RAG 已死,上下文工程当立
2025-05-30
2025-06-05
2025-06-06
2025-06-05
2025-05-27
2025-06-05
2025-06-20
2025-06-24
2025-07-15
2025-06-20
2025-08-20
2025-08-11
2025-08-05
2025-07-28
2025-07-09
2025-07-04
2025-07-01
2025-07-01