微信扫码
添加专属顾问
我要投稿
AI时代如何让智能体自主选择最优模型?n8n的模型选择器功能帮你实现智能路由。 核心内容: 1. 不同AI模型在速度、推理能力等方面的性能差异与适用场景 2. n8n模型选择器的工作原理与配置方法 3. 通过实际案例演示如何实现智能体自主选择模型
如果Agent能自己选择该用哪个模型就好了!
你看,我们现在有好多模型可以用。开源的,闭源的;速度快但是推理差一些的,速度慢但是推理很强的。这些模型各有各的用处。
比如我想要快问快答,那肯定不会用带深度思考的模型。如果我要处理很大份的文本,那我肯定要用超大上下文窗口的模型。这一切都是需求、效果、成本之间的平衡。
所以我前些天在星球内发了这么一个想法:我希望能有这样一个“智能模型路由器”。我会把各式各样的模型都挂上去。由这个路由器来决定什么情况用什么模型。
然后这个想法刚发出去,我就看到n8n在一个多月前推出的功能,叫“模型选择器(Model Selector)”。它基本实现了我想要的功能。
本期视频,我会用一个工作流给大家演示n8n的模型选择器究竟是怎么运作的。
哈喽各位好,欢迎回到我的频道。谦虚地说,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西远比教程更值钱。记得点一波关注。如果想链接我,就来我们newtype社群。这个社群已经运营500天,有超过1600位小伙伴付费加入啦。
回到今天的主题:n8n的模型选择器功能。
这是我搭建的工作流,专门用来搜索。但是大家知道,现在AI搜索一般有两种情况:
一种是普通AI搜索,就跟我们以前使用搜索引擎差不多,要搜的都是简单的内容。
另一种是深度搜索,也就是Deep Research,经常需要等上好几分钟。
为了实现这两种搜索效果,我配置了两个模型,都来自Perplexity。普通搜索用Sonar模型,深度搜索用Sonar Deep Research。
那么问题来了:怎么让Agent自主选择模型呢?
我在这边添加了一个Basic LLM Chain,它下边挂了一个gpt-4.1-mini的模型,用来做需求判断。点进去可以看到,我在System Prompt里要求:
如果用户的请求比较简单,输出数字“1”;
如果用户的请求比较复杂、需要Deep Research,输出数字“2”。
所以,前两个节点会有两个信息传到第三个节点:一个是数字1或者2,这个决定用什么模型;另一个是用户的需求,这个决定模型搜索的内容。
在AI Agent节点里边,可以看到,它会接收第一个节点的信息,也就是用户请求。
在下方Chat Model的子节点,原本这边是直接挂模型的,这个时候挂上了模型选择器。
这个选择器最多支持挂10个模型。我这边挂了两个,都是来自OpenRouter,一个是Sonar,一个是Sonar Deep Research。
在选择器里面可以设定选择规则。在刚才第二个节点,我特意让gpt-4.1-mini做了判断。它会传输数字1或者2过来。所以到了这边,如果接收到的是1,就使用第一个模型,也就是Sonar;如果接收到的是2,就使用第二个模型,也就是Sonar Deep Research。
我们来做一个测试。提一个简单的问题:GPT-5介绍。
显然这种问题不需要Deep Research,于是gpt-4.1-mini输出1给到模型选择器,然后使用Sonar这个模型完成搜索。
再来一个复杂点的需求:GPT-5和Claude Opus 4.1在编程方面的能力对比,尽可能详细。
你看,虽然我没有提到要Deep Research,但是gpt-4.1-mini判断这是个大活儿,于是它向模型选择器传递数字2,然后启用Sonar Deep Research。这个模型一旦运行起来就得两三分钟,当然,最终的答案自然是非常详细的——这个就是要根据需求选择不同模型的原因。如果每个简单的问题都来一遍Deep Research,就完全没必要了。
通过刚才的演示可以看到,这套用法的核心是条件的设定和判别。我这个设置是比较简单,你还可以根据需要设置得更加精细,多加几个前置的节点。在这方面,n8n有很大自由度。
那么,当这些全部搞定之后,可以使用我之前视频里介绍过的MCP Trigger功能,把这整套东西输出给AI客户端使用。我在星球内也发过JSON脚本,大家自取。
所以,就像我之前说的:现在n8n的工作流,一个Agent可以挂别的Agent作为子节点,然后模型又可以通过本期介绍的模型选择器去挂最多10个模型。这样一来,就可以根据情况形成一个树状的结构,去做条件判断。最后,这一大套东西还可以变成MCP服务器对外输出。
这种灵活性,以及原子化、模块化的可能性,是我愿意去研究n8n的根本原因。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-08-18
快手Klear-Reasoner登顶8B模型榜首,GPPO算法双效强化稳定性与探索能力!
2025-08-18
纯CPU加速Embedding推理曝惊人成绩:提速90%,错误率低于1%
2025-08-18
MCP运行机制与部署方式- AI模型部署与管理的核心协议
2025-08-18
AI厌恶还是AI欣赏?基于能力-个性化框架的元分析综述
2025-08-18
Manus“跑路”后的4个启示
2025-08-18
星巴克用AI省下上亿成本:揭秘巨头的数字化转型实战
2025-08-18
Embedding 与 Rerank 模型
2025-08-18
不容错过的超酷 MCP 服务器推荐
2025-05-29
2025-05-23
2025-06-01
2025-06-21
2025-06-07
2025-06-12
2025-06-19
2025-06-13
2025-05-28
2025-07-29
2025-08-18
2025-08-18
2025-08-18
2025-08-15
2025-08-14
2025-08-14
2025-08-13
2025-08-13