免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

腾讯云开源DeepSeek量化部署方案:性能最高提升3.9X!

发布日期:2025-11-19 18:29:47 浏览次数: 1533
作者:腾讯开源

微信搜一搜,关注“腾讯开源”

推荐语

腾讯云开源DeepSeek量化部署方案,性能最高提升3.9倍,助力大模型降本增效!

核心内容:
1. W4AFP8混合量化方案详解:INT4权重+FP8激活的优化组合
2. SGLang框架的TP/EP并行策略优化与性能对比
3. 量化方案实际效果:模型体积减半,推理成本降低50%

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

随着大语言模型规模持续增长,如何降低推理成本成为业界焦点。量化是一种主流的稳定高效的降本部署方式。腾讯云联合小红书Hilab Infra团队,在SGLang 中实现了DeepSeek量化模型的高效推理优化,并在HuggingFace中发布了DeepSeek-V3.1-Terminus的量化模型。目前整套方案已在腾讯云HAI中上线。


PART 01


量化方案介绍

当前主流的大语言模型普遍采用MoE架构,这种架构可以在减少训推成本的同时提升模型性能,与此同时,模型体积也变得越来越大。比如,DeepSeek系列为671B,Kimi K2达到了 1TB,而当前主流的GPU单卡显存只有 80GB/96GB,通常需要双机分布式部署。

模型量化是提升推理效率、降低推理成本的主流方式,它是指在保持模型精度尽量不变的前提下,将模型使用的高精度数值(如 FP32/BF16 浮点数)转换为低精度数值(如 FP8、INT8、INT4 甚至更低比特)的过程,从而减少了大模型内存占用、提升了推理性能。


当前针对MoE模型,社区普遍使用W4AFP8 混合量化方案,这种量化方案的特点在于:
  • 对权重(Weight)采用 INT4 量化,对激活(Activation)采用 FP8 动态量化

  • 只对普通专家权重使用INT4量化,而对其他线性层保留DeepSeek原生的FP8量化方式;

这样做的好处在于,普通路由专家权重占整个模型体积的 97% ,只对普通路由专家权重做 4-bit量化,可以在降低一半模型体积的同时,尽可能减小模型运行时精度损失,并且提升了权重读写带宽,进而加快了推理速度。

W4AFP8混合量化方案

通过上述W4AFP8混合量化方案,可以将DeepSeek系列模型大小从689GB减小到 367GB,从而可以实现单机八卡部署,推理成本降低 50%。为了实现这种量化模型的高效推理,我们在SGLang中实现了一种优化的推理方案,并贡献给了开源社区。





PART 02


推理框架优化

大模型中的MoE模块推理时一般有两种并行策略:TP并行(Tensor Parallel)和 EP并行(Expert Parallel),如下图所示。 EP并行时,每个 GPU 负责一部分专家(Experts),不同 GPU 上的专家各不相同,而TP并行是将单个专家(例如 MLP 的权重矩阵)在多 GPU 之间做切分,共同计算。

TP并行和EP并行的权重划分对比示意图

SGLang中最初针对W4AFP8模型的推理方案是EP并行EP并行的好处是在并行度比较大的时候,整体通信效率更高,但是在单机八卡时通信效率跟TP没有差异;另外,EP并行在并发比较小时还有负载不均衡的问题,热点 Expert所在的GPU卡会拖慢整体计算速度,如下图。
不同专家被激活的token数量(图片源于NVIDIA公众号)

TP并行时,所有GPU卡计算量一致,整体计算时间稳定,性能相比 EP有明显提升。

然而,将这一理论上的优势转化为实际可用的功能,需要克服以下两个挑战:

1. 权重切分与加载的适配实现TP并行需要设计一套新的权重加载逻辑,能够正确识别需要切分的权重(如专家MLP层的权重矩阵),并按照TP的策略(如行切分或列切分)将其均匀地切分到多个GPU上。同时,新的TP实现需要能够无缝集成到推理框架现有的分布式调度逻辑中。

2. 推理计算内核的兼容模型推理时前向传播计算需要适配TP模式,这是实现TP部署的核心工作。例如,对于一个线性层,TP部署时输入的权重和对应的量化参数维度已经变化,如果直接使用原来的算子可能会有计算错误,或者性能无法达到最优;这要求对推理框架中负责MoE层计算的核心内核有深入的了解并进行修改。

SGLangW4AFP8量化模块架构TP并行需要修改部分

为此,腾讯云联合小红书Hilab Infra团队,为SGLang提供了完整的 W4AFP8模型TP并行推理实现开发过程团队深入分析模型结构,修改SGLang中与模型权重加载相关的代码,确保W4AFP8格式的量化权重能被正确切分并加载到TP组内的各个GPU另外我们重构CUDA内核调度模块修改CUDA内核实现确保MoE模块TP计算精度无损同时我们遍历各种内核调优配置TileShape,ClusterShape Scedule策略从中选取最优组合保证MoE算子的高性能

通过上述优化攻坚当前TP方案推理性能相比最初方案有了显著提升:TTFT最高降低了 20%,QPM最高提升了 14%。目前相关PR已正式合入 SGLang V0.5.2版本吸引更多开发者在此基础上做了进一步优化和拓展

(详见 https://github.com/sgl-project/sglang/pull/8118

在SGLang V0.5.2之后的版本用TP并行部署 W4AFP8模型很简单,只需要如下命令:

python3 -m sglang.launch_server --model-path /path/to/model --tp 8 --trust-remote-code --host 0.0.0.0 --port 8000




PART 03


DeepSeek-V3.1-Terminus 量化高效推理方案

DeepSeek-V3.1-Terminus 是 DeepSeek 最新一代开源模型,在保持超强推理能力的同时,进一步提升了通用任务性能与代码生成能力。与前代模型相比,Terminus 在多语言理解、数学推理、长上下文等任务上均有显著提升。
(详见https://api-docs.deepseek.com/news/news250922)
我们完成了DeepSeek-V3.1-Terminus的 W4AFP8量化,在这个过程中,我们使用了更多场景下的校准数据集, 使得MMLU-Pro任务精度损失仅为 0.38%。目前该模型已经上传到HuggingFace, 欢迎下载使用。(详见:https://huggingface.co/tencent/DeepSeek-V3.1-Terminus-W4AFP8
该模型可以由上述推理优化方案直接支持,单台GPU部署时推理性能相比量化FP8模型,可以提升 2.7×~3.9×

W4AFP8模型相比W4A16FP8模型QPMBatch11664对比




PART 04


结语

通过这次优化,腾讯云让大模型推理在“性能 × 成本 × 精度”之间找到了新的平衡点。从 DeepSeek-V3.1-Terminus 的强大能力,到 SGLang 推理框架的开放生态,腾讯云正在让大模型更轻、更快、更易用。后续我们还将支持更多的开源模型,如GLM系列、Kimi系列等。

感谢小红书Hilab Infra团队的通力合作和支持,感谢 SGLang团队的辛苦付出,腾讯云也将继续与社区伙伴共建,共同推动国产大模型在推理性能和生态落地上的新突破。

如想亲身体验 DeepSeek-V3.1-Terminus W4AFP8 量化模型在 SGLang 推理框架中的卓越性能提升,可通过腾讯云 HAI,一键部署企业生产级服务:


  1. 访问腾讯云「HAI 推理集群」控制台:https://console.cloud.tencent.com/hai/reasoning
  2. 创建推理集群:点击「新增服务」按钮,填写集群名称,选择所需模型(如 DeepSeek-V3.1-Terminus-W4AFP8)及匹配的算力资源(如 GPU 类型),确认后点击「部署服务」。
  3. 获取调用地址并集成:集群创建成功后,点击目标集群的「调用信息」,复制 API 调用地址和认证信息,即可在您的应用中快速集成并发起推理请求。




53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询