2026年4月10日 周五晚上19:30,来了解“从个人单点提效,到构建企业AI生产力”(限30人)
免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

怎么把 EmbedClaw 从 Qwen 扩到五款国产大模型!启明云端乐鑫代理及方案商

发布日期:2026-04-07 20:20:01 浏览次数: 1522
作者:启明云端科技

微信搜一搜,关注“启明云端科技”

推荐语

EmbedClaw最新升级!一键切换五款国产大模型,开发者友好度拉满。

核心内容:
1. 五款国产大模型统一接入方案解析
2. 配置文件修改关键点与最佳实践
3. 开源项目地址与完整使用指南

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

✦₊ 点击上方名片 关注了解更多 🌷


前面几篇,我已经把 EmbedClaw 的整体架构、上手方式、Tool 扩展讲得差不多了。

这一篇我不再重复入门,直接讲最近这次更新里最实际的一件事:

这里先把时间线说清楚,避免误解。

EmbedClaw 最早并不是一开始就支持五家。

最早跑通的,只有 Qwen via DashScope。

直到最近,我才把 DeepSeek / 豆包 / Kimi / 混元 这几组预设一起补进来。

也就是说:

在最早先把 Qwen 跑通之后,我把多模型切换这件事正式补齐了。

现在,EmbedClaw 可以直接切下面这五家国产模型:

    这一篇,我就把这件事一次讲清楚:

      项目地址:

      https://github.com/wireless-tag-com/EmbedClaw


      01

      为什么这五家我都放进同一条接入链路

      主要核心是这些都兼容OpenAI的调用方式

      所以你在仓库里会看到两件事:

      • components/embed_claw/llm/ec_llm.c 默认初始化的是 openai provider

      • components/embed_claw/ec_config_internal.h 里内置了五组模型预设

      这意味着,在 EmbedClaw 里切模型,本质上不是重写 Agent,也不是重写 Tool。

      真正会变的,通常只有三项:

      • API Key

      • API URL

      • Model

      这就是我想要的效果。

      模型应该是可替换的,而不是把整个工程绑死在某一家平台上。

      02

      先说一个最关键的点

      前面几篇如果你已经跟着做过,这里我只提醒一句:

      真正该改的是 main/ec_config.h,不是组件里的默认配置。

      仓库里的 components/embed_claw/ec_config_internal.h 负责提供默认值,你自己的模型切换和密钥覆盖,放到 main/ec_config.h 就够了。

      一个最小模板可以直接写成这样:

      #define EC_USE_QWEN                1#define EC_USE_DEEPSEEK            0#define EC_USE_DOUBAO              0#define EC_USE_KIMI                0#define EC_USE_HUNYUAN             0#define EC_LLM_API_KEY             "YOUR_API_KEY"
      这几个规则先记住,后面就不会配乱:

        如果你想把地址和模型名也一起写死,可以这样写:

        #define EC_LLM_PROVIDER_NAME       "openai"#define EC_LLM_API_URL             "https://your-endpoint/v1/chat/completions"#define EC_LLM_MODEL               "your-model-name"#define EC_LLM_API_KEY             "YOUR_API_KEY"
        这也是我一直想要的开发体验:

        切模型,应该是改配置,不应该是拆架构。

        03

        五款大模型

        01

         通义千问

        千问是 EmbedClaw 最早就有的那条链路。

        它不只是当前默认模型,也是我最早跑通的默认模型。

        当前仓库里的默认值是:

        #define EC_QWEN_LLM_API_URL        "https://dashscope-intl.aliyuncs.com/compatible-mode/v1/chat/completions"#define EC_QWEN_LLM_MODEL          "qwen-plus"
        也就是说,如果你先跑千问,通常只要把 EC_LLM_API_KEY 填进去就够了。


        申请 API Key

        1. 打开阿里云 Model Studio API Key文档

          (https://help.aliyun.com/zh/model-studio/get-api-key)

        2. 按文档里的入口进入 API-KEY Management

        3. 登录你的阿里云账号

        4. 创建一个新的 API Key

        5. 复制并保存好


        配置示例

        #define EC_USE_QWEN                1#define EC_USE_DEEPSEEK            0#define EC_USE_DOUBAO              0#define EC_USE_KIMI                0#define EC_USE_HUNYUAN             0#define EC_LLM_API_KEY             "YOUR_DASHSCOPE_API_KEY"
        如果你不额外定义 EC_LLM_API_URL 和 EC_LLM_MODEL,EmbedClaw 就会自动落到这组千问预设。

        2

         DeepSeek

        DeepSeek 也是我在仓库里直接做成预设的一组。

        当前默认值是:

        #define EC_DEEPSEEK_LLM_API_URL    "https://api.deepseek.com/v1/chat/completions"#define EC_DEEPSEEK_LLM_MODEL      "deepseek-chat"
        切过去很简单,关掉千问,打开 EC_USE_DEEPSEEK,然后换成你自己的 Key 就行。


        申请 API Key

        1. 打开DeepSeek首页(https://deepseek.com/)

        2. 选择API开放平台

        3. 创建 API Key


        配置示例

        #define EC_USE_QWEN                0#define EC_USE_DEEPSEEK            1#define EC_USE_DOUBAO              0#define EC_USE_KIMI                0#define EC_USE_HUNYUAN             0#define EC_LLM_API_KEY             "YOUR_DEEPSEEK_API_KEY"
        如果你想先确认是不是平台侧问题,我建议先拿一条最小请求把接口测通:
        curl https://api.deepseek.com/v1/chat/completions \  -H "Content-Type: application/json" \  -H "Authorization: Bearer YOUR_DEEPSEEK_API_KEY" \  -d '{    "model""deepseek-chat",    "messages": [      {        "role""user""content":"hello"      }    ]  }'
        这是我自己调接口时常用的办法。

        先把云端接口确认没问题,再回头看设备侧日志,排查会快很多。

        03

        豆包

        豆包这条线我想多说一句。

        我在仓库里也给它做了预设,但豆包的实际接入,最好不要只靠默认值去猜。

        因为不同区域、不同控制台入口、不同开通模型,最后拿到的 URL 和 model 可能并不完全一样。

        当前仓库默认值是:

        #define EC_DOUBAO_LLM_API_URL      "https://ark.cn-beijing.volces.com/api/v3/chat/completions"#define EC_DOUBAO_LLM_MODEL        "doubao-seed-2-0-pro-260215"
        但如果你控制台里已经给了明确的地址和模型名,我还是建议你直接覆盖掉。


        申请 API Key

        1. 打开豆包API(https://www.volcengine.com/product/doubao)

        2. 点击开启AI新体验

        3. 点击 API 接入

        4. 点击创建

        5. 完成认证

        6. 开通模型后复制 URL、model 和 API Key


        推荐配置

        #define EC_USE_QWEN                0#define EC_USE_DEEPSEEK            0#define EC_USE_DOUBAO              1#define EC_USE_KIMI                0#define EC_USE_HUNYUAN             0#define EC_LLM_API_KEY             "YOUR_DOUBAO_API_KEY"#define EC_LLM_API_URL             "控制台给你的 URL"#define EC_LLM_MODEL               "控制台给你的 model"
        这条线我更推荐你按控制台实际值来配,而不是完全依赖仓库默认值。

        这样最稳。

        04

        Kimi

        Kimi 这边的接入也已经内置好了。

        当前默认值是:

        #define EC_KIMI_LLM_API_URL        "https://api.moonshot.cn/v1/chat/completions"#define EC_KIMI_LLM_MODEL          "kimi-k2.5"

        这条线的思路和前面一样,切换成本非常低。


        申请 API Key

        1. 打开Kimi开放平台(https://platform.moonshot.cn/)

        2. 点击开始构造

        3. 选择API Key管理,并创建 API Key

        4. 输入 API 名称,选择 default 项目

        5. 复制 API Key


        配置示例

        #define EC_USE_QWEN                0#define EC_USE_DEEPSEEK            0#define EC_USE_DOUBAO              0#define EC_USE_KIMI                1#define EC_USE_HUNYUAN             0#define EC_LLM_API_KEY             "YOUR_KIMI_API_KEY"

        如果你后面想换成 Kimi 的其它具体模型,也一样,显式覆盖 EC_LLM_MODEL 就行。

        05

        腾讯混元

        很多人更熟悉“腾讯元宝”这个名字。

        但对开发者来说,真正对应的接入能力其实是“腾讯混元”API。

        元宝是产品,混元是底层模型。

        当前仓库默认值是:

        #define EC_HUNYUAN_LLM_API_URL     "https://api.hunyuan.cloud.tencent.com/v1/chat/completions"#define EC_HUNYUAN_LLM_MODEL       "hunyuan-turbos-latest"


        申请 API Key

        1. 打开腾讯混元大模型

        2. 创建API key(https://console.cloud.tencent.com/hunyuan/start)

        3. 点击查看,然后复制 API Key 即可


        配置示例

        #define EC_USE_QWEN                0#define EC_USE_DEEPSEEK            0#define EC_USE_DOUBAO              0#define EC_USE_KIMI                0#define EC_USE_HUNYUAN             1#define EC_LLM_API_KEY             "YOUR_HUNYUAN_API_KEY"

        如果腾讯云控制台给了你明确模型名,那就把 EC_LLM_MODEL 一起写上,不用依赖默认值。

        04

        最后给一份通用模板

        如果你只是想先把其中一家跑起来,那下面这份 main/ec_config.h 模板可以直接改:

        #define EC_USE_QWEN                0#define EC_USE_DEEPSEEK            0#define EC_USE_DOUBAO              0#define EC_USE_KIMI                0#define EC_USE_HUNYUAN             1#define EC_LLM_PROVIDER_NAME       "openai"#define EC_LLM_API_KEY             "YOUR_API_KEY"/* 平台如果给了明确 URL 和 model,建议直接写 *//* #define EC_LLM_API_URL          "https://your-endpoint/v1/chat/completions" *//* #define EC_LLM_MODEL            "your-model-name" *//* 可选 *//* #define EC_SECRET_SEARCH_KEY    "YOUR_TAVILY_API_KEY" *//* #define EC_SECRET_FEISHU_APP_ID     "YOUR_FEISHU_APP_ID" *//* #define EC_SECRET_FEISHU_APP_SECRET "YOUR_FEISHU_APP_SECRET" */

        你把其中一家打开,把 Key 填进去,基本就能开始测。

        05

        写在最后

        这次之所以能比较快地把这五家补进来,一个很现实的原因就是:

        它们本身都能走 OpenAI-Compatible 这条调用链路。

        如果你手上还有自己常用、也支持 OpenAI-Compatible 调用的大模型,欢迎继续往里加。

        希望大家可以多多的参与进来,改造EmbedClaw。

        关于我们

        启明云端作为乐鑫科技一级代理及方案商,是一家集研发、设计、生产于一体的国家级高新技术企业,为客户提供从ESP模组、ESP开发板、智能彩屏到融合AI大模型的端到端AIoT一体化解决方案。公司通过了ISO质量管理体系认证,拥有近百项知识产权,资深的工程师团队,研发人员占比60%以上,年出货量达2000+万片,产品服务全球超过5000+家企业客户,覆盖智能家居、工业控制、医疗及消费电子等100+个细分领域。

        END

        Wireless-tag | 启明云端

        往期回顾 Past Review

        EmbedClaw:我把一个完整 AI Agent 跑进了 ESP32!启明云端乐鑫代理及方案商

        ESP32里的AI Agent:EmbedClaw上手教程!启明云端乐鑫代理及方案商

        EmbedClaw可以使用QQ进行控制啦!启明云端乐鑫代理及方案商

        53AI,企业落地大模型首选服务商

        产品:场景落地咨询+大模型应用平台+行业解决方案

        承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

        联系我们

        售前咨询
        186 6662 7370
        预约演示
        185 8882 0121

        微信扫码

        添加专属顾问

        回到顶部

        加载中...

        扫码咨询