微信扫码
添加专属顾问
我要投稿
三大主流LLM推理引擎横向对比,帮你找到最适合业务场景的解决方案。 核心内容: 1. vLLM:高并发场景首选,显存优化和动态批处理技术解析 2. SGLang:吞吐性能王者,结构化输出和多轮对话性能优势 3. TensorRT-LLM:NVIDIA官方低延迟方案,硬件级优化特点
大模型,其实现在主要包括两大块:LLM和AIGC模型。其实LLM也是AIGC的一类,不过一般大家喜欢把AIGC单指图像和视频生成模型。LLM起步比AIGC早,框架也相对丰富和成熟。本文就使用少量的文字来介绍我们平常会用到的LLM推理框架。
来自伯克利的实力选手,专治“显存不够”和“吞吐太低”。这可能也是大家用得最多的LLM推理框架,搞LLM的候选人简历上不写个懂vLLM貌似都不大好意思。
四个绝活:
适合干啥?高并发、高响应场景,比如金融对话、AI客服、在线问答。
项目地址:https://github.com/vllm-project/vllm.git
同样出自伯克利,是一款基于Radix树的高吞吐LLM推理引擎。
核心在于:
跑多轮对话时,吞吐是vLLM的5倍(没看错,5 倍!)。
适合干啥?高并发多轮对话、搜索引擎、金融领域,一整套流程都能省心。
项目地址:https://github.com/sgl-project/sglang
NVIDIA官方出品,为自家显卡量身打造。早期做Transformer模型的同学对FasterTransformer不会陌生,本公众号也有几篇分析。实际上,我个人学LLM推理入门就是从FasterTransformer开始的。而TRT-LLM其实就是FasterTransformer的继任者,第一版的代码和FasterTransformer的最后一个版本基本一致,然后再上面持续迭代优化。 特点就是——快!还省显存!
适合干啥?极限低延迟的场景,比如高频交易、语音助手、AI电话客服。
项目地址:https://github.com/NVIDIA/TensorRT-LLM
NV家的东西吧,很喜欢走开源+闭源结合的方式,所以有很多核心部件看不到,不大容易自己扩展。
你可能不搞大集群,但也想玩大模型?用它!
适合干啥?个人开发、隐私场景、快速原型,连苹果M1都能跑。
项目地址:https://github.com/ollama/ollama
这个项目其实不是追求高性能,而是让每个电脑都能把LLM跑起来。
PD分离听过吧?就是把prefill阶段和decoding阶段分开做。这个框架很大的一个卖点就是PD分离。另外,它的内核支持使用kubernetes集群部署,所以,自然就是企业级部署的不错选择。
特点:
预处理、生成分开跑,让两个阶段都更加高效;
引入了FlashMLA等高效算子;
一样有continuous batching技术。
适合干啥?客服系统、智能问答、企业知识库,一套搞定。
项目地址:https://github.com/xorbitsai/inference
轻量选手,别看代码少,性能一点不虚。
适合干啥?高吞吐API服务、聊天机器人、边缘部署。
项目地址:https://github.com/ModelTC/LightLLM
大模型怎么能没有国产方案!
适合干啥?政企、金融、教育等对国产芯片有要求的场景,放心大胆部署。
LMDeploy是使用Python+CPP混合开发的框架,并且C++层非常重。当然了,带来的收益是他的效率非常高。曾经在用它部署TTS的模型的时候发现了ROPE使用BF16的精度问题。Anyway,这绝对是一个好框架。
项目地址:https://github.com/InternLM/lmdeploy
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-05-29
2025-05-23
2025-06-01
2025-06-07
2025-06-21
2025-05-20
2025-06-12
2025-06-19
2025-06-13
2025-05-28
2025-08-11
2025-08-11
2025-08-11
2025-08-11
2025-08-11
2025-08-11
2025-08-10
2025-08-09