微信扫码
添加专属顾问
我要投稿
LangChain v1.0带来模型选型新思路,静态与动态模型灵活切换,提升Agent开发效率与扩展性。 核心内容: 1. 静态模型与动态模型的区别与应用场景 2. 统一初始化接口与标准消息内容块的优势 3. 中间件机制如何解决跨提供商差异与扩展性问题
init_chat_model 与 create_agent),便于跨提供商切换。content_blocks)统一表示推理、工具调用、多模态输出等高级特性,降低跨提供商差异带来的复杂度。create_agent 成为 v1.0 推荐的建 Agent 方式;模型既可用字符串( provider + model 标识),也可用具体模型实例,接口更简洁。init_chat_model 提供标准化初始化与参数传递(如 temperature、timeout、max_tokens、max_retries),提升跨提供商一致性。content_blocks 标准化表示推理、工具调用、多模态数据与引用,统一解析不同提供商的原生响应。before_model/after_model/wrap_model_call/wrap_tool_call 等钩子,动态提示词、状态管理、人工审核与错误处理更自然。create_agent("gpt-4o", tools) 或传入模型实例。init_chat_model 初始化模型后直接 invoke/stream/batch。from langchain.agents import create_agent
from langchain_openai import ChatOpenAI
# 方式一:用模型名称(字符串)
agent = create_agent(
"gpt-4o", # 具体模型标识,按你的提供商可替换
tools=[]
)
# 方式二:用模型实例(更细粒度参数控制)
model = ChatOpenAI(
model="gpt-4o",
temperature=0.1,
max_tokens=1000,
timeout=30,
)
agent = create_agent(model, tools=[])
wrap_model_call)。from langchain_openai import ChatOpenAI
from langchain.agents import create_agent
from langchain.agents.middleware import wrap_model_call, ModelRequest, ModelResponse
basic_model = ChatOpenAI(model="gpt-4o-mini")
advanced_model = ChatOpenAI(model="gpt-4o")
@wrap_model_call
def dynamic_model_selection(request: ModelRequest, handler) -> ModelResponse:
# 示例逻辑:依据消息条数切换模型
message_count = len(request.state["messages"]) if"messages"in request.state else0
request.model = advanced_model if message_count > 10else basic_model
return handler(request)
agent = create_agent(
model=basic_model, # 默认模型
tools=[],
middleware=[dynamic_model_selection]
)
在 dynamic_model_selection 示例中,我们通过 request.state["messages"] 获取了会话历史。这里的 request.state 是一个关键概念,它通常由上层的执行器(如 LangGraph)在图的流转过程中负责填充和传递。state 本质上是一个字典,包含了当前执行步骤的所有上下文信息,例如历史消息、中间步骤的输出等。中间件正是通过访问这个 state,才能实现依赖于当前对话状态的复杂逻辑。
中间件是 LangChain v1.0 架构的核心,它允许在模型或工具调用前后注入自定义逻辑,实现了类似 AOP(面向切面编程)的强大功能。
中间件不仅限于模型选择,还可以用于实现横切关注点(Cross-Cutting Concerns),如日志记录、监控或请求修改。以下是一个简单的日志记录中间件,它会在模型调用前后打印信息。
import logging
from langchain.agents.middleware import before_model, after_model
logging.basicConfig(level=logging.INFO)
@before_model
def log_before_model_call(request: ModelRequest):
logging.info(f"即将调用模型: {request.model.model}")
return request
@after_model
def log_after_model_call(: ModelResponse):
logging.info(f"模型调用完成。")
return response
# 在创建 Agent 时加入这些中间件
agent_with_logging = create_agent(
model=basic_model,
tools=[],
middleware=[
dynamic_model_selection,
log_before_model_call,
log_after_model_call
]
)
除了在 Agent 中使用模型,LangChain v1.0 也提供了统一的独立模型调用接口,方便进行简单的、非代理式的调用。
from langchain.chat_models import init_chat_model
model = init_chat_model(
"gpt-4o", # 具体模型名称视提供商而定
temperature=0.7,
timeout=30,
max_tokens=1000,
)
# 单次调用
response = model.invoke("Why do parrots have colorful feathers?")
print(response)
# 内容块(content_blocks)可用于查看更细粒度结构(如工具调用、多模态引用)
try:
print(getattr(response, "content_blocks", None))
Exception:
pass
# 流式
for chunk in model.stream("Explain photosynthesis in one paragraph."):
print(chunk)
model | wrap_model_call 标准化路由 | |
prompt | system_prompt/user_prompt | |
config["configurable"] | invoke/streamcontext(静态上下文不计入 token) | |
agent,模型流统一 model | ||
create_react_agent vs create_agent旧版主要依赖 langgraph.prebuilt.create_react_agent,其动态模型选择和上下文注入方式与 v1.0 有明显不同。
# 旧版示例:create_react_agent(来自 langgraph.prebuilt)
from langgraph.prebuilt import create_react_agent
from langchain_openai import ChatOpenAI
basic_model = ChatOpenAI(model="gpt-4o-mini")
advanced_model = ChatOpenAI(model="gpt-4o")
def select_model(state):
"""依据会话状态选择模型:消息较多走更强模型。"""
count = len(state.get("messages", []))
return advanced_model if count > 10else basic_model
agent = create_react_agent(
model=select_model, # 旧版:model 支持 callable 实现动态选择
tools=[],
prompt="You are a helpful assistant."# 旧版:静态提示参数名为 prompt
)
# 运行时上下文注入(旧式):使用 config["configurable"]
result = agent.invoke(
{"messages": [{"role": "user", "content": "Hello"}]},
config={"configurable": {"tenant": "demo", "user_id": "u-001"}}
)
print(result)
model 参数提供一个可调用对象(callable)实现。middleware 中的 wrap_model_call 钩子实现,更标准化、可组合。prompt 参数。system_prompt,并推荐通过中间件管理动态提示。config["configurable"] 字典。invoke 或 stream 方法的 context 参数,实现标准化的依赖注入。content_blocks 统一处理。human-in-the-loop 中间件,必要时切换至更保守模型。中间件不仅可以作用于模型,也可以包装工具调用,实现统一的错误处理、日志记录或权限校验。
from langchain_openai import ChatOpenAI
from langchain.tools import tool
from langchain.agents import create_agent
from langchain.agents.middleware import wrap_tool_call
@tool
def add(a: int, b: int) -> int:
"""Return a + b."""
return a + b
@wrap_tool_call
def handle_tool_errors(request, handler):
# 捕获工具调用异常并返回可用消息,避免整条链崩溃
try:
return handler(request)
except Exception as e:
from langchain_core.messages import ToolMessage
return ToolMessage(content=f"Tool error: {e}", tool_call_id=request.tool_call.get("id", "unknown"))
agent = create_agent(
model=ChatOpenAI(model="gpt-4o-mini"),
tools=[add],
middleware=[handle_tool_errors],
)
print(agent.invoke({"messages": [{"role": "user", "content": "调用加法工具,计算 12 与 30 的和。"}]}))
在 v1.0 中,可直接通过 context 传递非提示的静态上下文(不计入 token),常用于租户、用户画像或灰度标识。
ctx = {"tenant": "demo", "user_id": "u-001", "ab": "bucket-a"}
result = agent.invoke({"messages": [{"role": "user", "content": "生成 1 段问候语。"}]}, context=ctx)
print(result)
max_retries 与速率限制器(如内存速率限制器)以平衡吞吐与稳定性。53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-11-18
LangChain 1.0 变革
2025-11-16
用 Langchain v1.0 打造 Jira 智能体:从 0 到 1 实现自动化任务管理
2025-11-08
LangChain 1.0 入门实战教学
2025-11-07
LangGraph vs. Agno-AGI:新一代AI智能体框架的全方位深度解析
2025-11-06
LangChain v1.0正式版发布,5分钟快速上手实战
2025-11-06
LangChain重磅升级!DeepAgents 0.2带来可插拔后端,重新定义AI智能体开发
2025-11-05
LangChain 1.0 全面进化指南
2025-11-03
不再搞Chain 设计的LangChain 1.0,与LangGraph有哪些区别?
2025-09-13
2025-09-21
2025-10-19
2025-11-03
2025-10-23
2025-09-06
2025-10-31
2025-09-12
2025-09-19
2025-11-05
2025-11-03
2025-10-29
2025-07-14
2025-07-13
2025-07-05
2025-06-26
2025-06-13
2025-05-21