微信扫码
添加专属顾问
我要投稿
利用DeepSeek模型,降低飞书智能伙伴的成本,提升聊天场景体验。 核心内容: 1. DeepSeek模型在飞书智能伙伴中的应用优势 2. 创建DeepSeek API Key的详细步骤 3. 在飞书智能伙伴搭建平台配置模型的关键信息
Deepseek 出了名的量大管饱,而对于一般常见的 Chat 场景,直接使用 DeepSeek 是个不错的选择,作为普通用户,完全可以直接使用 DeepSeek来接入飞书智能伙伴,降低自己的模型消费成本。
我就试着将 DeepSeek 接入到了我的飞书智能伙伴搭建平台上。
首先,访问 DeepSeek 开放平台[1],进入 API Keys 页面[2]。
点击「创建 API Key」,为你的飞书智能伙伴平台创建一个全新的 Key,以便于后续按 Key 来管理。
复制生成的 Key,进入到飞书智能伙伴搭建平台的企业管理后台。
在管理后台进入模型管理页面,可以看到飞书智能伙伴搭建平台提供的默认模型,这部分模型只能管理是否可用,但无法配置 Key(你如果用完了 Quota,可以直接购买 Quota)。如果你需要配置自己的 Key,则需要按照接入模型的指南,对应进行接入。
点击右上角的「接入模型」,并在弹出的窗口中,选择模型供应商为「自定义模型」,
然后依次如下填写:
deepseek-chat640000https://api.deepseek.com/chat/completions[3]POSTAuthorization,其值为 Bearer 你的TOKEN填写完成后,大概是这样的:
提交完成后,就可以看到你刚刚配置的模型了。接下来就可以在应用当中使用它了~
使用 DeepSeek 模型示意图
如果你希望整个平台的所有部分都使用 DeepSeek 的模型,则需要点击「模型管理」页面的「模型设置」,将默认模型和替换模型设置为 DeepSeek 模型,这样后续所有逻辑就都会默认使用 DeepkSeek 的模型
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-12-14
我微调了一个LangChain专家模型,离Vibe Agent又近了一步
2025-12-11
左脚踩右脚:大模型的有趣且简单的微调方式“SHADOW-FT”
2025-12-11
大模型训练的高效内存解决方案:流水线感知的细粒度激活卸载,实现显存开销与吞吐性能的联合最优
2025-12-08
一杯咖啡成本搞定多模态微调:FC DevPod + Llama-Factory 极速实战
2025-12-04
OpenAI公开新的模型训练方法:或许能解决模型撒谎问题,已在GPT-5 thiking验证
2025-11-23
微调Rerank模型完整指南
2025-11-22
大模型微调全流程实战指南:基于IPO框架的深度解析与优化
2025-11-21
AI基础 | Qwen3 0.6B 微调实现轻量级意图识别
2025-10-12
2025-10-14
2025-10-21
2025-09-24
2025-09-20
2025-09-25
2025-11-05
2025-11-05
2025-11-21
2025-12-04