微信扫码
添加专属顾问
我要投稿
深度体验双卡RTX 5090,探索AI推理框架与性能极限。 核心内容: 1. 双卡RTX 5090工作站PC配置概览 2. AI推理框架选择:Ollama、SGLang、vLLM对比 3. 性能实测与兼容性问题解析
最近有幸拿到了一台配备双卡 NVIDIA GeForce RTX 5090 显卡的工作站PC,这无疑是许多追求极致性能的开发者梦想装备。不过,新硬件的到来往往伴随着一些挑战,尤其是在软件适配和性能表现方面。
通过销售渠道了解到,目前国内市场上暂时还没有涡轮散热版的 RTX 5090,我们拿到的是风扇版。这意味着在多卡配置时需要特别注意散热和空间。
在本文中,我们将分享在 Ubuntu 系统下配置这台双卡 5090 机器进行 AI 推理的实践过程,重点探讨大家可能关心的几个问题:用什么推理框架?性能如何?是否存在传闻中的性能限制? 这也是一次深度的体验和实测。
首先,简单介绍一下我们的测试平台配置:
系统环境:
nvidia-smi 确认两张 RTX 5090 均被正确识别,CUDA 12.8 环境就绪。
拿到新卡,自然要跑一下 AI 模型。但面对新硬件,推理框架的选择至关重要。哪个框架能无缝衔接,哪个又需要我们“动手”解决兼容性问题呢?
好消息是,Ollama 已经支持使用 RTX 5090 进行推理。配置过程非常简单,对于想快速上手体验的用户来说是首选。
根据我们的测试,SGLang 目前最高支持到 CUDA 12.4。因此,SGLang 暂时无法直接在 RTX 5090 上使用。希望后续版本能尽快适配。
vLLM 是一个非常流行的推理框架,但其最新发布版(如 0.8.2)并不直接支持 RTX 5090 的 sm_120 计算能力。
#CUDA版本低报错:
RuntimeError: CUDA error: no kernel image is available for execution on the device
#使用PyTorch2.6.0报错:
NVIDIA GeForce RTX 5090 with CUDA capability sm_120 is not compatible with the current PyTorch installation.
The current PyTorch install supports CUDA capabilities sm_50 sm_60 sm_70 sm_75 sm_80 sm_86 sm_90.
If you want to use the NVIDIA GeForce RTX 5090 GPU with PyTorch, please check the instructions at https://pytorch.org/get-started/locally/解决方案: 需要自行编译 vLLM。这需要满足特定条件:使用 PyTorch 的 Nightly 版本,并确保 CUDA 版本为 12.8。这对环境配置和编译经验有一定要求,我们在配置相对较低的机器上手动编译未能成功。
小结: 对于 RTX 5090 用户,目前最便捷的推理框架是 Ollama。如果你是 vLLM 的深度用户且具备编译能力和耐心,可以尝试自行编译以获得最佳性能。
既然 Ollama 支持良好,我们便使用它加载 deepseek-r1:32b 模型进行了初步的性能测试。
启动命令:
ollama run deepseek-r1:32b --verbose
从初步测试看,单张 RTX 5090 在 Ollama 下运行 32B 模型的性能表现令人满意。nvtop 监控显示单卡工作状态良好。
这是本次深度体验的核心环节。此前,根据 Chiphell 论坛等渠道的消息,针对中国市场的 RTX 5090D 版本被曝存在一些限制,例如:
那么,我们手上这张标准版的 RTX 5090(非 D 版)在国内使用时,是否也存在这些令人担忧的问题呢?我们设计了以下压力测试来对其进行严格的实测验证:
# 确保 Ollama 可以使用两张卡 (GPU 0 和 1)
CUDA_VISIBLE_DEVICES=0,1 ollama run deepseek-r1:70b --verbosepip install 'evalscope[app,perf]' -U -i https://mirrors.aliyun.com/pypi/simple/
git clone https://github.com/wilicc/gpu-burn
cd gpu-burn
make# 向 Ollama (运行 70b 模型) 发起并行推理请求
evalscope perf --parallel 8 --url http://127.0.0.1:11434/v1/chat/completions --model deepseek-r1:32b --log-every-n-query 10 --connect-timeout 600 --read-timeout 600 --api openai --prompt '写一个科幻小说,不少于2000字' -n 20# 在 CPU 核心 0 和 1 上运行 gpu-burn,持续 360 秒,压榨 GPU 计算单元
taskset -c 0-1 ./gpu_burn 360在长达 3 分钟的持续高强度压力测试下(结合 Ollama 70b 模型跨卡推理、evalscope 并发请求、gpu-burn 极限计算):
本次双 RTX 5090 的深度体验为我们带来了不少有价值的信息。对于计划在 Linux 环境下利用双 RTX 5090 进行 AI 工作的朋友们,目前来看:
希望这次的双 RTX 5090 深度体验和实测,特别是关于框架选择和性能限制的验证,能为你的决策提供有价值的参考。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-10-29
KnowFlow 无缝衔接 Dify,分块支持添加父标题、Title 切块支持自定义标题层级切割、图片理解新增支持上下文
2025-10-28
邪修榨干元宝AI录音笔:白天工作,晚上陪聊
2025-10-27
免费又好用的AI录音笔都出来了,这下哪还有理由不学习?
2025-10-24
Aiops探索:我用Dify结合k8s的api做了一个非常简单的Aiops智能体
2025-10-24
阿里夸克AI眼镜开售:叠加补贴后3699元,它能打破AI眼镜的魔咒吗?
2025-10-23
Dify平台集成阿里云AI安全护栏,构建AI Runtime安全防线
2025-10-13
Dify + 飞书组合拳:企业级 AI 安全大脑落地全指南,助力安管效率提升 300%
2025-09-23
专访Plaud中国区CEO:我们只做“必须做”和“不做要死”的事
2025-09-19
2025-09-02
2025-10-13
2025-09-02
2025-10-24
2025-08-25
2025-09-05
2025-09-02
2025-08-22
2025-08-28