支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


vLLM部署Deepseek(CPU版)踩坑记录(失败经验贴)

发布日期:2025-04-21 12:55:18 浏览次数: 1627 作者:是十三不是四十三
推荐语

vLLM CPU版Deepseek部署血泪史,带你避开那些坑!

核心内容:
1. 从ollama转向vLLM的本地化部署背景
2. Python、gcc版本不匹配等安装障碍
3. 运行时遇到的各种报错及解决尝试

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家
一、背景    
       之前一直是用Ollama做本地化部署的,但是ollama只适合自己在本地部署玩一玩,提供的API的丰富程度、吞吐量以及支持的问答的上下文长度等等完全没办法和vllm比,所以决定还是找台机器基于vllm(https://docs.vllm.ai/en/stable/getting_started/installation/cpu/)对DeepSeek32b做本地化部署,其实vllm这个框架主要是对于GPU做了优化,至于为什么要CPU的版本,那当然是因为穷
安装教程主要参考的官网和简书上的这个https://www.jianshu.com/p/9e5992bda36f
二、坑一:Python环境版本
      不同的vLLM版本需要不同的Python版本,比如最新的vLLM0.73版本要求Python版本是3.12,之前的0.63版本的vLLM则要求3.10版本的Python。
vLLM的版本有这么多呢
三、坑二:gcc版本
        按官网要求gcc、g++的版本需要升级到12.3.0以上,需要编译安装,不能直接安装,很麻烦而且要花很长时间。
四、坑三:git下载vLLM仓库
进入vllm目录下按requirements-cpu.txt文件要求安装其他依赖包。注意一定要指定
--extra-index-url https://download.pytorch.org/whl/cpu  不然装不上(亲测)
然后安装基于CPU的服务端
到这一步其实都还算正常,然后运行下载下来的模型,问题就来了。
vllm serve /usr/local/data/models/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B 
这一步一直报错报错报错
去github上搜索了一下,对于CPU版本基本没有对应的解决方案:https://github.com/vllm-project/vllm/issues/7608
https://github.com/vllm-project/vllm/issues/5501
提到的比较多的是通过版本降级安装更低版本的vLLM来解决上述问题。
但是我先后切换了vLLM 0.7.3、0.7.0、0.6.6、0.6.3都不行
放弃了,等GPU的机器到位了再写个新的经验贴~~~~~

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询