微信扫码
添加专属顾问
我要投稿
探索LangGraph如何简化AI工作流开发,释放Agentic框架的真正潜力。核心内容: 1. Agentic框架的核心优势与必要性分析 2. LangGraph基础架构与关键组件解析 3. 实战案例展示与同类框架对比评估
随着强大 AI 模型(如 GPT-5、Gemini 2.5 Pro)的崛起,能充分利用这些模型的 agentic 框架也越来越多。这类框架通过抽象掉诸多繁琐环节,使与 AI 模型协作更简单,例如处理 tool-calling(工具调用)、agentic state handling(智能体状态管理)、human-in-the-loop(人类参与闭环)等。
因此,本文将深入介绍可用的 agentic AI 框架之一:LangGraph。我会用它来开发一个简单的 agentic 应用,通过若干步骤展示 agentic AI 包的优势。文末也会讨论使用 LangGraph 及其他类似 agentic 框架的优缺点。
本文没有任何来自 LangGraph 的赞助。我之所以选择它,是因为它足够流行。当然,还有很多其他选择,例如:
市面上有很多旨在让应用开发更容易的包。但在不少情况下,它们产生了相反效果:让代码更晦涩、生产环境表现不佳、调试也更困难。
然而,关键在于找到那些能通过抽象样板代码而真正简化应用的包。这个原则在创业圈常被这样概括:
专注于解决你要解决的那个“确切问题”。其他(已经被解决的问题)都应交给现成应用去处理。
需要 agentic 框架的原因是它能抽象掉许多你不想亲自处理的复杂性:
因此,使用 agentic 框架可以抽离大量复杂细节,让你把精力集中在产品的核心部分。
要开始实现 LangGraph,我首先阅读了它的文档:https://langchain-ai.github.io/langgraph/concepts/why-langgraph/,重点包括:
顾名思义,LangGraph 基于“图”的构建,并在每次请求时执行该图。你可以在图中定义:
这些都源自基本的图论思想。
我认为最好的学习方式之一就是自己动手试。因此,我将用 LangGraph 实现一个简单的 workflow。你可以在 workflow 文档中学习如何构建这些流程,这些文档借鉴了 Anthropic 的 Building effective agents 博文(这是我最喜欢的关于 agents 的文章之一,我在很多早期文章中都提到过,非常推荐阅读)。
我会做一个简单的应用,使用户可以:
为此,我会创建如下 workflow:
当然,你也可以直接定义好所有工具,让 agent 自由地执行创建/删除/搜索文档的操作。但如果你希望根据意图执行更多动作,那么先做一次意图分类的路由会更合适。
首先,我会加载所需的 imports 和将使用的 LLM。这里我用的是 AWS Bedrock,但你也可以使用其他服务商,详见本教程第 3 步:https://langchain-ai.github.io/langgraph/tutorials/get-started/1-build-basic-chatbot/#__tabbed_1_1
"""
Make a document handler workflow where a user can
create a new document to the database (currently just a dictionary)
delete a document from the database
ask a question about a document
"""
from typing_extensions import TypedDict, Literal
from langgraph.checkpoint.memory import InMemorySaver
from langgraph.graph import StateGraph, START, END
from langgraph.types import Command, interrupt
from langchain_aws import ChatBedrockConverse
from langchain_core.messages import HumanMessage, SystemMessage
from pydantic import BaseModel, Field
from IPython.display import display, Image
from dotenv import load_dotenv
import os
load_dotenv()
aws_access_key_id = os.getenv("AWS_ACCESS_KEY_ID") or ""
aws_secret_access_key = os.getenv("AWS_SECRET_ACCESS_KEY") or ""
os.environ["AWS_ACCESS_KEY_ID"] = aws_access_key_id
os.environ["AWS_SECRET_ACCESS_KEY"] = aws_secret_access_key
llm = ChatBedrockConverse(
model_id="us.anthropic.claude-3-5-haiku-20241022-v1:0", # this is the model id (added us. before id in platform)
region_name="us-east-1",
aws_access_key_id=aws_access_key_id,
aws_secret_access_key=aws_secret_access_key,
)
document_database: dict[str, str] = {} # a dictionary with key: filename, value: text in document
我还把“数据库”定义成了一个文件字典。在生产环境中,你当然会使用真正的数据库;不过本教程中我们做了简化。
接下来定义图。我先创建一个 Router(路由器)对象,用来把用户的 prompt 分类为三种意图之一:
# Define state
class State(TypedDict):
input: str
decision: str | None
output: str | None
# Schema for structured output to use as routing logic
class Route(BaseModel):
step: Literal["add_document", "delete_document", "ask_document"] = Field(
description="The next step in the routing process"
)
# Augment the LLM with schema for structured output
router = llm.with_structured_output(Route)
def llm_call_router(state: State):
"""Route the user input to the appropriate node"""
# Run the augmented LLM with structured output to serve as routing logic
decision = router.invoke(
[
SystemMessage(
content="""Route the user input to one of the following 3 intents:
- 'add_document'
- 'delete_document'
- 'ask_document'
You only need to return the intent, not any other text.
"""
),
HumanMessage(content=state["input"]),
]
)
return {"decision": decision.step}
# Conditional edge function to route to the appropriate node
def route_decision(state: State):
# Return the node name you want to visit next
if state["decision"] == "add_document":
return "add_document_to_database_tool"
elif state["decision"] == "delete_document":
return "delete_document_from_database_tool"
elif state["decision"] == "ask_document":
return "ask_document_tool"
这里我定义了 state,用来存储用户输入、路由器的决策(三种意图之一),并强制 LLM 做结构化输出。结构化输出能确保模型只返回这三种意图之一。
接着,我会定义本例使用的三个工具,每个意图对应一个工具。
# Nodes
def add_document_to_database_tool(state: State):
"""Add a document to the database. Given user query, extract the filename and content for the document. If not provided, will not add the document to the database."""
user_query = state["input"]
# extract filename and content from user query
filename_prompt = f"Given the following user query, extract the filename for the document: {user_query}. Only return the filename, not any other text."
output = llm.invoke(filename_prompt)
filename = output.content
content_prompt = f"Given the following user query, extract the content for the document: {user_query}. Only return the content, not any other text."
output = llm.invoke(content_prompt)
content = output.content
# add document to database
document_database[filename] = content
return {"output": f"Document {filename} added to database"}
def delete_document_from_database_tool(state: State):
"""Delete a document from the database. Given user query, extract the filename of the document to delete. If not provided, will not delete the document from the database."""
user_query = state["input"]
# extract filename from user query
filename_prompt = f"Given the following user query, extract the filename of the document to delete: {user_query}. Only return the filename, not any other text."
output = llm.invoke(filename_prompt)
filename = output.content
# delete document from database if it exsits, if not retunr info about failure
if filename not in document_database:
return {"output": f"Document {filename} not found in database"}
document_database.pop(filename)
return {"output": f"Document {filename} deleted from database"}
def ask_document_tool(state: State):
"""Ask a question about a document. Given user query, extract the filename and question for the document. If not provided, will not ask the question about the document."""
user_query = state["input"]
# extract filename and question from user query
filename_prompt = f"Given the following user query, extract the filename of the document to ask a question about: {user_query}. Only return the filename, not any other text."
output = llm.invoke(filename_prompt)
filename = output.content
question_prompt = f"Given the following user query, extract the question to ask about the document: {user_query}. Only return the question, not any other text."
output = llm.invoke(question_prompt)
question = output.content
# ask question about document
if filename not in document_database:
return {"output": f"Document {filename} not found in database"}
result = llm.invoke(f"Document: {document_database[filename]}\n\nQuestion: {question}")
return {"output": f"Document query result: {result.content}"}
最后,我们用节点和边来构建图:
# Build workflow
router_builder = StateGraph(State)
# Add nodes
router_builder.add_node("add_document_to_database_tool", add_document_to_database_tool)
router_builder.add_node("delete_document_from_database_tool", delete_document_from_database_tool)
router_builder.add_node("ask_document_tool", ask_document_tool)
router_builder.add_node("llm_call_router", llm_call_router)
# Add edges to connect nodes
router_builder.add_edge(START, "llm_call_router")
router_builder.add_conditional_edges(
"llm_call_router",
route_decision,
{ # Name returned by route_decision : Name of next node to visit
"add_document_to_database_tool": "add_document_to_database_tool",
"delete_document_from_database_tool": "delete_document_from_database_tool",
"ask_document_tool": "ask_document_tool",
},
)
router_builder.add_edge("add_document_to_database_tool", END)
router_builder.add_edge("delete_document_from_database_tool", END)
router_builder.add_edge("ask_document_tool", END)
# Compile workflow
memory = InMemorySaver()
router_workflow = router_builder.compile(checkpointer=memory)
config = {"configurable": {"thread_id": "1"}}
# Show the workflow
display(Image(router_workflow.get_graph().draw_mermaid_png()))
最后的显示函数会渲染出如下图所示的图结构:
现在你可以按不同意图来试跑这个 workflow 了。
添加文档:
user_input = "Add the document 'test.txt' with content 'This is a test document' to the database"
state = router_workflow.invoke({"input": user_input}, config)
print(state["output"]
# -> Document test.txt added to database
搜索文档:
user_input = "Give me a summary of the document 'test.txt'"
state = router_workflow.invoke({"input": user_input}, config)
print(state["output"])
# -> A brief, generic test document with a simple descriptive sentence.
删除文档:
user_input = "Delete the document 'test.txt' from the database"
state = router_workflow.invoke({"input": user_input}, config)
print(state["output"])
# -> Document test.txt deleted from database
很好!可以看到 workflow 在不同路由下都能正常工作。你也可以随意增加更多意图,或为每个意图增加更多节点,构建更复杂的 workflow。
agentic workflows 与完全的 agentic applications 之间的差异有时会让人困惑。为区分这两个术语,我引用 Anthropic 的 Building effective agents 一文中的说法:
Workflows 是通过预定义的代码路径来编排 LLM 和工具的系统;而 Agents 是由 LLM 动态地指挥其自身流程与工具使用、并持续控制任务完成方式的系统。
大多数使用 LLM 解决的问题都会采用 workflow 模式,因为大多数问题(以我的经验)是预定义的,并且应该有一套预设的防护栏可遵循。例如在上面的添加/删除/搜索文档场景中,你完全应该先定义意图分类器,并基于不同意图设定好后续流程。
但有时你也需要更自主的 agentic 用例。比如 Cursor 想要一个 coding agent,它能在你的代码中搜索、在线查阅最新文档,并修改你的代码。在这些情况下,预先定义好固定的 workflows 很困难,因为可能出现的场景极为多样。
如果你想打造更自主人格的 agentic 系统,可以在这里了解更多:https://langchain-ai.github.io/langgraph/concepts/agentic_concepts/
我认为 LangGraph 有三点主要优点:
LangGraph 的安装和快速试跑都很简单,尤其是参考其官方文档,或把文档喂给 Cursor 并提示它实现特定 workflows 时更是如此。
此外,LangGraph 的代码是开源的,这意味着无论提供它的公司如何变化或做何决策,你都能继续运行代码。对于要上生产环境的项目,这一点至关重要。最后,LangGraph 还显著简化了大量代码,并抽象掉许多你原本需要在 Python 里亲自处理的逻辑。
不过,我在实现过程中也发现了一些不足:
在实现自定义 workflow 时,我感觉仍需添加不少样板代码。尽管代码量确实比从零开始实现要少,但为了构建一个相对简单的 workflow,我也写了比预期更多的代码。我认为部分原因在于:LangGraph 希望把自己定位为比(例如)LangChain 更低代码(这点我认为是好的,因为以我个人观点,LangChain 抽象得过多,反而让调试更难)。
此外,与很多第三方包一样,在集成 LangGraph 时你会遇到特有问题。例如,我想预览自己创建的 workflow 的图时,就遇到了与 draw_mermaid_png 函数相关的问题。使用外部包时碰到这类错误在所难免,这始终是在“包提供的有用抽象”与“可能遭遇的各种 bug”之间做权衡。
总体而言,在处理 agentic 系统时,我觉得 LangGraph 是个很有用的包。先做意图分类、再根据意图进入不同流程来搭建我想要的 workflow,这个过程相对简单。此外,我认为 LangGraph 在“不把所有逻辑都抽象掉(避免代码被遮蔽、便于调试)”与“确实抽象掉我不想亲自处理的复杂性”之间找到了不错的平衡。采用这类 agentic 框架有利有弊,而我认为判断取舍的最好方式,就是亲自实现一些简单的 workflows 试一试。
原文地址:https://pub.towardsai.net/how-to-build-effective-agentic-systems-with-langgraph-e5433d7aa153
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-11-19
LangChain v1.0 模型选型:静态还是动态?一文看懂 Agent 的正确打开方式
2025-11-18
LangChain 1.0 变革
2025-11-16
用 Langchain v1.0 打造 Jira 智能体:从 0 到 1 实现自动化任务管理
2025-11-08
LangChain 1.0 入门实战教学
2025-11-07
LangGraph vs. Agno-AGI:新一代AI智能体框架的全方位深度解析
2025-11-06
LangChain v1.0正式版发布,5分钟快速上手实战
2025-11-06
LangChain重磅升级!DeepAgents 0.2带来可插拔后端,重新定义AI智能体开发
2025-11-05
LangChain 1.0 全面进化指南
2025-09-13
2025-09-21
2025-10-19
2025-11-03
2025-10-23
2025-09-06
2025-10-31
2025-09-12
2025-09-19
2025-11-05
2025-11-03
2025-10-29
2025-07-14
2025-07-13
2025-07-05
2025-06-26
2025-06-13
2025-05-21