微信扫码
添加专属顾问
我要投稿
揭秘智能体如何智能决策:何时调用工具,何时自行回答?核心机制解析让你彻底理解Agent的工作流程。 核心内容: 1. Agent的核心机制:LLM负责思考,Tool负责执行的循环过程 2. 详细拆解LangChain Agent的6步运行流程 3. 实际案例展示从问题到工具调用再到最终答案的完整决策链
Agent 是怎么知道 “要不要调用 Tool” 的?它是在什么时候决定用 Tool,什么时候自己回答的?
大模型(LLM)负责“思考”,Tool 负责“执行”。
换句话说: Agent = 一种“思考 → 工具调用 → 再思考”的循环机制。
agent.run("帮我查一下苹果手机的库存,还有写一个促销文案")
LangChain Agent 背后的运行机制是这样的:
这段 Prompt 里面包括:
这一大段 Prompt 会告诉 LLM:“你有以下这些能力,要根据用户的需求决定是否使用。”
然后 LLM 会“模拟 Agent 的思考”,像人一样写出类似这样的回复:
Thought: 用户要查库存,应该使用查库存工具
Action: 查库存
Action Input: "苹果手机"
LangChain 就从这段话里解析出: → OK,大模型的意思是要调用 Tool 叫 “查库存”,传参 “苹果手机”。
也就是你之前注册的:
Tool(name="查库存", func=check_stock, description="输入商品名称返回库存")
于是调用 check_stock("苹果手机")
,拿到返回值,比如:
Observation: 当前库存还有 32 件
现在 LangChain 重新构造 Prompt,告诉模型:
Thought: 用户要查库存...
Action: 查库存
Action Input: "苹果手机"
Observation: 当前库存还有 32 件
然后让 LLM 再接着想下一步怎么做。
比如它下一步可能会输出:
Thought: 好的,现在我已经知道库存情况,可以生成促销文案了
Action: 写文案
Action Input: "苹果手机 + 库存还有 32 件"
或者:
Final Answer: 苹果手机目前还有 32 件库存,推荐文案:买它!买它!库存紧张,限时抢购!
这个循环过程就结束了。
大模型每一次的“回复”,不是答案,而是一个行动计划。Agent 就是把这个“计划”翻译成实际工具调用,然后把结果返回给模型,继续思考。
用户提问 →
LangChain 构建 Prompt(含工具列表) →
↓
模型“思考”(生成 Thought + Action) →
↓
LangChain 执行 Action 对应的 Tool →
↓
拿到 Observation →
↓
再喂回模型继续思考 →
↓
直到输出 Final Answer → 返回用户
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-10-04
用Claude Code经验告诉你:别只盯着 Prompt,上下文才是生死线!
2025-10-04
什么是 Embedding?万物即可Embedding
2025-10-04
从 Claude Code 看 AI-Native 产品设计
2025-10-03
AGI 都还不确定,怎么理解阿里云提的 ASI
2025-10-03
Anthropic 发布 AI Agent 上下文工程指南
2025-10-02
告别相机!OpenAI用Sora2重新发明了短视频!
2025-10-02
Doubao-Seed-1.6-Vision首发评测:硬核实测18个案例,看懂原生VisualCoT有多强!
2025-10-02
实测 Sora 2 :AI视频的“ChatGPT时刻”来了?八大场景教你解锁各种玩法(附邀请码)
2025-08-21
2025-08-21
2025-08-19
2025-09-16
2025-07-29
2025-09-08
2025-08-19
2025-09-17
2025-08-20
2025-09-14
2025-09-30
2025-09-29
2025-09-28
2025-09-27
2025-09-27
2025-09-25
2025-09-23
2025-09-22