微信扫码
添加专属顾问
我要投稿
运维SRE的革命性工具来袭,7B参数的专属大模型,助力自动化运维。核心内容:1. 基于DeepSeek架构的7B参数SRE专属大模型介绍2. 阿里云GPU服务器部署环境搭建指南3. Docker镜像部署与依赖组件安装步骤
实例支持以下GPU实例规格族:
gn6e、ebmgn6e
gn7i、ebmgn7i、ebmgn7ix
gn7e、ebmgn7e、ebmgn7ex
ebmgn8v、ebmgn8is
镜像:选择以Ubuntu 20.04操作系统为例。在GPU实例上使用vLLM容器镜像,需要提前在该实例上安装Tesla驱动且驱动版本应为535或更高,建议您通过ECS控制台购买GPU实例时,同步选中安装GPU驱动。
sudo apt-get update
sudo apt-get -y install ca-certificates curl
sudo install -m 0755 -d /etc/apt/keyrings
sudo curl -fsSL http://mirrors.cloud.aliyuncs.com/docker-ce/linux/ubuntu/gpg -o /etc/apt/keyrings/docker.asc
sudo chmod a+r /etc/apt/keyrings/docker.asc
echo \
"deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.asc] http://mirrors.cloud.aliyuncs.com/docker-ce/linux/ubuntu \
$(. /etc/os-release && echo "$VERSION_CODENAME") stable" | \
sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
sudo apt-get update
sudo apt-get install -y docker-ce docker-ce-cli containerd.io
4、执行以下命令,检查Docker是否安装成功。
5、执行以下命令,安装nvidia-container-toolkit。
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \
&& curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
sudo apt-get update
sudo apt-get install -y nvidia-container-toolkit
6、设置Docker开机自启动并重启Docker服务。
sudo systemctl enable docker
sudo systemctl restart docker
sudo systemctl status docker
8、执行以下命令,拉取vLLM镜像。
9、执行以下命令,运行vLLM容器。
sudo docker run -d -t --net=host --gpus all \
--privileged \
--ipc=host \
--name vllm \
-v /root:/root \
egs-registry.cn-hangzhou.cr.aliyuncs.com/egs/vllm:0.8.2-pytorch2.6-cu124-20250328
10、执行以下命令,查看vLLM容器是否启动成功。
apt install git-lfs
cd /root
git lfs clone https://www.modelscope.cn/phpcool/DeepSeek-R1-Distill-SRE-Qwen-7B.git
docker exec -it vllm bash
vllm serve /root/DeepSeek-R1-Distill-SRE-Qwen-7B --tensor-parallel-size 1 --max-model-len 2048 --enforce-eager
如下所示,表示vLLM推理服务已启动。
curl http://localhost:8000/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "/root/DeepSeek-R1-Distill-SRE-Qwen-7B",
"messages": [
{"role": "system", "content": "你是一位智能运维助手。"},
{"role": "user", "content": "如何优化服务器的存储性能以提高数据读写速度?" }
]}'
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-30
强化微调来袭!如何让AI真正“听懂”人类需求
2025-04-29
Qwen3 一手实测
2025-04-29
MCP、RAG、Function Calling、Agent与微调如何重塑未来应用
2025-04-28
Al代码审查实践:从构想到快速落地
2025-04-28
Trae 新版本增加 MCP、Agent、Rules 等多项功能,立即体验
2025-04-28
通用LLM插件系统——简化工具集成,提升2025年AI的灵活性
2025-04-27
演讲实录:中小企业如何快速构建AI应用?
2025-04-27
Cherry Studio v1.2.9:新增多个MCP特性
2025-02-04
2025-02-04
2024-09-18
2024-07-11
2024-07-09
2024-07-11
2024-07-26
2025-02-05
2025-01-27
2025-02-01
2025-04-27
2025-04-27
2025-04-23
2025-04-20
2025-04-01
2025-03-31
2025-03-20
2025-03-16