免费POC,零成本试错

AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


让Agent自己选择模型

发布日期:2025-08-18 12:44:22 浏览次数: 1523
作者:newtype AI

微信搜一搜,关注“newtype AI”

推荐语

AI时代如何让智能体自主选择最优模型?n8n的模型选择器功能帮你实现智能路由。

核心内容:
1. 不同AI模型在速度、推理能力等方面的性能差异与适用场景
2. n8n模型选择器的工作原理与配置方法
3. 通过实际案例演示如何实现智能体自主选择模型

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家



如果Agent能自己选择该用哪个模型就好了!


你看,我们现在有好多模型可以用。开源的,闭源的;速度快但是推理差一些的,速度慢但是推理很强的。这些模型各有各的用处。


比如我想要快问快答,那肯定不会用带深度思考的模型。如果我要处理很大份的文本,那我肯定要用超大上下文窗口的模型。这一切都是需求、效果、成本之间的平衡。


所以我前些天在星球内发了这么一个想法:我希望能有这样一个“智能模型路由器”。我会把各式各样的模型都挂上去。由这个路由器来决定什么情况用什么模型。


然后这个想法刚发出去,我就看到n8n在一个多月前推出的功能,叫“模型选择器(Model Selector)”。它基本实现了我想要的功能。


本期视频,我会用一个工作流给大家演示n8n的模型选择器究竟是怎么运作的。


哈喽各位好,欢迎回到我的频道。谦虚地说,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西远比教程更值钱。记得点一波关注。如果想链接我,就来我们newtype社群。这个社群已经运营500天,有超过1600位小伙伴付费加入啦。


回到今天的主题:n8n的模型选择器功能。


这是我搭建的工作流,专门用来搜索。但是大家知道,现在AI搜索一般有两种情况:


一种是普通AI搜索,就跟我们以前使用搜索引擎差不多,要搜的都是简单的内容。


另一种是深度搜索,也就是Deep Research,经常需要等上好几分钟。


为了实现这两种搜索效果,我配置了两个模型,都来自Perplexity。普通搜索用Sonar模型,深度搜索用Sonar Deep Research。


那么问题来了:怎么让Agent自主选择模型呢?


我在这边添加了一个Basic LLM Chain,它下边挂了一个gpt-4.1-mini的模型,用来做需求判断。点进去可以看到,我在System Prompt里要求:


如果用户的请求比较简单,输出数字“1”;


如果用户的请求比较复杂、需要Deep Research,输出数字“2”。


所以,前两个节点会有两个信息传到第三个节点:一个是数字1或者2,这个决定用什么模型;另一个是用户的需求,这个决定模型搜索的内容。


在AI Agent节点里边,可以看到,它会接收第一个节点的信息,也就是用户请求。


在下方Chat Model的子节点,原本这边是直接挂模型的,这个时候挂上了模型选择器。


这个选择器最多支持挂10个模型。我这边挂了两个,都是来自OpenRouter,一个是Sonar,一个是Sonar Deep Research。


在选择器里面可以设定选择规则。在刚才第二个节点,我特意让gpt-4.1-mini做了判断。它会传输数字1或者2过来。所以到了这边,如果接收到的是1,就使用第一个模型,也就是Sonar;如果接收到的是2,就使用第二个模型,也就是Sonar Deep Research。


我们来做一个测试。提一个简单的问题:GPT-5介绍。


显然这种问题不需要Deep Research,于是gpt-4.1-mini输出1给到模型选择器,然后使用Sonar这个模型完成搜索。


再来一个复杂点的需求:GPT-5和Claude Opus 4.1在编程方面的能力对比,尽可能详细。


你看,虽然我没有提到要Deep Research,但是gpt-4.1-mini判断这是个大活儿,于是它向模型选择器传递数字2,然后启用Sonar Deep Research。这个模型一旦运行起来就得两三分钟,当然,最终的答案自然是非常详细的——这个就是要根据需求选择不同模型的原因。如果每个简单的问题都来一遍Deep Research,就完全没必要了。


通过刚才的演示可以看到,这套用法的核心是条件的设定和判别。我这个设置是比较简单,你还可以根据需要设置得更加精细,多加几个前置的节点。在这方面,n8n有很大自由度。


那么,当这些全部搞定之后,可以使用我之前视频里介绍过的MCP Trigger功能,把这整套东西输出给AI客户端使用。我在星球内也发过JSON脚本,大家自取。


所以,就像我之前说的:现在n8n的工作流,一个Agent可以挂别的Agent作为子节点,然后模型又可以通过本期介绍的模型选择器去挂最多10个模型。这样一来,就可以根据情况形成一个树状的结构,去做条件判断。最后,这一大套东西还可以变成MCP服务器对外输出。


这种灵活性,以及原子化、模块化的可能性,是我愿意去研究n8n的根本原因。

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询