微信扫码
添加专属顾问
我要投稿
在前两篇文章中,我们详细介绍了如何通过 vLLM 高效部署开源模型 GLM-4-9B-Chat 和 Qwen2.5,并分享了验证代码。这两款模型体量较小,使用单张 4090 显卡即可部署,且在企业实际应用场景中表现优异。
本章将聚焦当前备受瞩目的开源模型 DeepSeek-V3。作为一款自称超越所有开源模型,甚至在部分能力上超过闭源模型的产品,DeepSeek-V3展现了惊人的潜力。不过,从 RAG 系统的实际需求来看,采用 DeepSeek-V3 似乎有些“大材小用”,它更适合应用于数学与代码等需要强推理能力的场景。
下表是DeepSeek-V3官网给出基础模型的测试打分:
官网打分部分截取
从这份测试报告中可以看到,DeepSeek-V3 在代码(Code)和数学(Math)领域全面超越了几款主流开源模型,尤其是阿里的 Qwen2.5-72B。值得注意的是,Qwen2.5-72B 本身已是一款强大的模型,尤其在 Code 和 Math 上表现不俗,而报告中显示 DeepSeek-V3 的性能超越了它,这无疑为业界带来了一次令人瞩目的技术突破,进一步巩固了其在高复杂性任务中的领先地位。
DeepSeek-V3介绍
架构:创新负载平衡策略和训练目标
预训练:实现终极训练效率
训练后:来自 DeepSeek-R1 的知识提炼
DeepSeek-V3部署
DeepSeek-V3 可以使用以下硬件和开源社区软件在本地部署:
接下来,将详细讲解如何使用 SGLang 和 vLLM 高效部署 DeepSeek-V3 的具体步骤。
SGLang部署DeepSeek-V3
GPU建议
如果您没有具有足够大内存的 GPU,请尝试多节点张量并行。
如果启动服务器时遇到错误,请确保权重已下载完成。建议提前下载或多次重启,直到下载完所有权重。
# Pull latest imagedocker pull lmsysorg/sglang:latest# Launchdocker run --gpus all --shm-size 32g -p 30000:30000 -v ~/.cache/huggingface:/root/.cache/huggingface --ipc=host lmsysorg/sglang:latest \python3 -m sglang.launch_server --model deepseek-ai/DeepSeek-V3 --tp 8 --trust-remote-code --port 30000
对于高 QPS 场景,添加--enable-dp-attention参数以提高吞吐量。
# Installationpip install "sglang[all]>=0.4.1.post5" --find-links https://flashinfer.ai/whl/cu124/torch2.4/flashinfer# Launchpython3 -m sglang.launch_server --model deepseek-ai/DeepSeek-V3 --tp 8 --trust-remote-code
对于高 QPS 场景,添加--enable-dp-attention参数以提高吞吐量。
import openaiclient = openai.Client(base_url="http://127.0.0.1:30000/v1", api_key="EMPTY")# Chat completionresponse = client.chat.completions.create(model="default",messages=[{"role": "system", "content": "You are a helpful AI assistant"},{"role": "user", "content": "你真的那么强吗?"},],temperature=0,max_tokens=64,)print(response)
vLLM部署DeepSeek-V3
单 GPU(无分布式推理):如果您的模型适合单 GPU,则可能不需要使用分布式推理。只需使用单 GPU 运行推理即可。
单节点多 GPU(张量并行推理):如果您的模型太大,无法放入单个 GPU,但可以放入具有多个 GPU 的单个节点,则可以使用张量并行。张量并行大小是您要使用的 GPU 数量。例如,如果您在单个节点中有 4 个 GPU,则可以将张量并行大小设置为 4。
多节点多 GPU(张量并行加流水线并行推理):如果您的模型太大,无法放入单个节点,则可以将张量并行与流水线并行结合使用。张量并行大小是您希望在每个节点中使用的 GPU 数量,流水线并行大小是您希望使用的节点数量。例如,如果您在 2 个节点中有 16 个 GPU(每个节点 8 个 GPU),则可以将张量并行大小设置为 8,将流水线并行大小设置为 2。
简而言之,您应该增加 GPU 数量和节点数量,直到您有足够的 GPU 内存来容纳模型。张量并行大小应该是每个节点中的 GPU 数量,管道并行大小应该是节点数量。
安装和启动
通过查阅 vLLM 的 issue 列表可以发现,目前 vLLM 对 DeepSeek-V3 的支持仅处于基础运行阶段,性能尚未达到预期。因此,暂不提供安装和启动的详细指南。待 vLLM 的增强计划完成后,我们会及时更新相关内容并提供完整的部署说明。
写在最后
DeepSeek-V3 在代码和数学领域表现突出,对于关注这些方向的企业来说无疑是一大喜讯。毕竟,这两项能力在市场上有着广阔的应用前景,而以往具有高性能的模型大多为闭源且高成本。DeepSeek-V3 的出现,以开源形式提供了强大的能力,不仅降低了门槛,也为创业和技术创新提供了更多可能性。它的发布在大模型领域引发了不小的轰动,为行业带来了更多选择和活力。
题外话:在 DeepSeek-V3 提供的聊天门户中,我尝试了一段 Prompt 的生成,出于好奇,将这段 Prompt 分别用于测试文心一言、豆包、Kimi、元宝和通义等模型。结果如何,你们一定想不到!建议大家亲自尝试一下。
Prompt如下:
帮我写 1 个面向年轻女性宣传一款内衣的品牌营销slogan,简洁吸睛,富有创意,字数要求150字。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-03-20
企业级 Agent 多智能体架构与选型指南 -- 来自1000+行业应用实践积累
2026-03-20
ollama v0.18.2 发布!OpenClaw 安装优化、Claude 加速、MLX 量化全面升级
2026-03-19
开源版Cowork——Eigent集成ERNIE 5.0,让AI Agent自动化高效工作
2026-03-17
打造 Claude Code 并行自主开发环境:Auto Claude + GLM 4.7
2026-03-17
又一款开源的LLM生成3D场景的3D编辑器,这次功能更强大了
2026-03-17
英伟达的NemoClaw,能帮AI代理这匹“野马”套上缰绳吗?
2026-03-17
腾讯混元AI Infra核心技术重磅开源:推理吞吐提升30%!
2026-03-17
英伟达重磅开源!Nemotron 3 Super:专为AI智能体打造的"超级大脑
2026-01-27
2026-01-30
2026-01-12
2026-01-29
2026-01-27
2025-12-22
2026-01-28
2026-01-21
2025-12-23
2026-01-06
2026-03-17
2026-03-13
2026-03-02
2026-02-05
2026-01-28
2026-01-26
2026-01-21
2026-01-21