微信扫码
添加专属顾问
我要投稿
由于众所周知的原因,某些GPU在某些地区销售是没有合法渠道&售后保障的,从奇怪的渠道购买GPU有概率买到翻新货、假货。对于计算用途的GPU,我们通常会关心峰值算力、显存带宽、通信带宽三个指标,如果拿到的货这三个指标实测值和理论值相符咱就基本能安全下车了。这里将分三篇分别说明每个指标怎么测,本文是第一篇:算力篇。
注:以下表中的“利用率”不是 nvidia-smi里看到的GPU-Util(GPU-Util这个数值除了能让你知道GPU在跑以外,什么用都没有),下表中的“利用率”是指某种精度的GEMM算子运算过程中对GPU对应精度的运算单元硬件的利用效率。
H100 PCIe vs. A100 PCIe (CUTLASS 3.5.1 GEMM算子)
注:单位均为TFLOPS(浮点)或 TOPS(整型),数值均为实际性能,而非稀疏等价性能。后缀为T的行表示使用Tensor Core。
可以看出CUTLASS目前对A100的优化比对H100 PCIe的优化好。H100 PCIe有着2倍于A100 PCIe的价格,1.4倍于A100的功耗,差不多得到了2倍的算力(以及稍微强些的内存、通信带宽),INT4性能被阉割,但增加了FP8支持。
个人认为,H100 PCIe版的能耗、性价比都有点鸡肋,与其买一两块H100 PCIe版尝尝鲜,不如花多点钱买8卡/4卡的H100 SXM整机一步到位,正所谓“买的越多,省的越多”。
4090 vs. A10(CUTLASS 3.5.1 GEMM算子)
可以看CUTLASS对4090各种精度的优化都挺好,对A10的FP32、FP64的优化有点烂。作为常用的大模型推理卡,A10和4090在显存和通信的规格上相似,价格也差不多,A10计算性能却只有4090的1/3,唯一优势就是A10功耗是4090的1/3,少交点电费。
矩阵形状:M=N=K=8192
测试使用的CUTLASS源码(https://github.com/NVIDIA/cutlass) git commit hash:
19b4c5e065e7e5bbc8082dfc7dbd792bdac850fc
4090测试时的CUTLASS编译选项
-DCUTLASS_NVCC_ARCHS="89"
A10测试时的CUTLASS编译选项
-DCUTLASS_NVCC_ARCHS="86"
A100测试时的CUTLASS编译选项
-DCUTLASS_NVCC_ARCHS="80"
H100测试时的CUTLASS编译选项
-DCUTLASS_NVCC_ARCHS="90a"
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-06-14
新一代文本表征Qwen3-Embedding与排序模型Qwen3-Reranker 部署和替换
2025-06-14
“华强北”围攻AI耳机,未来智能如何突围?
2025-06-14
AI时代如何为企业和个人赋能
2025-06-14
没吃透 Function Calling?难怪你不理解 AI Agent 为何非来不可!
2025-06-14
浅尝一下微软的AutoGen框架
2025-06-14
基于大模型的智能运营 | 智能体式编排,业务流程管理的新阶段
2025-06-14
从Manus爆火看Agent AI的技术演进与市场变革——AI Agent全景研报
2025-06-14
张鹏对谈李广密:Agent 的真问题与真机会,究竟藏在哪里?
2025-05-29
2025-03-20
2025-03-21
2025-04-11
2025-03-20
2025-03-19
2025-03-20
2025-03-19
2025-03-19
2025-03-19
2025-06-14
2025-06-14
2025-06-14
2025-06-13
2025-06-13
2025-06-13
2025-06-13
2025-06-12