微信扫码
添加专属顾问
我要投稿
Google突破性技术TurboQuant,3bit量化实现零精度损失,8倍推理速度提升,彻底打破大模型部署内存限制。 核心内容: 1. TurboQuant革命性压缩原理:PolarQuant极坐标变换+QJL残差处理 2. 实测性能:6倍内存缩减+8倍速度提升,长上下文任务零精度损失 3. 行业影响:同等硬件支持6倍并发,彻底改变LLM推理格局
刚刚
Google 放了一个可能改变整个 LLM 推理格局的炸弹——TurboQuant
TurboQuant 把 KV Cache 从"最贵、最慢、最难优化的部件"变成了"几乎免费"的资源。
搞过大模型部署的人都知道,KV Cache 是推理阶段最大的内存杀手。
上下文越长,KV Cache 越膨胀,显存就越不够用。
之前的量化方案要么损失精度,要么引入额外的内存开销(存储量化常数),搞半天省不了多少。
TurboQuant 的恐怖之处在于:3 bit 量化 KV Cache,质量零损失,速度还更快。
用人话讲,它做了两件事:
第一步:PolarQuant —— 换个坐标系看世界
传统量化就像用网格纸去描点——每个点都需要 X、Y、Z 坐标,每个坐标都得单独算一个缩放系数,这些缩放系数本身就要占内存(就是所谓的"量化开销")。
PolarQuant 换了个思路:先把向量随机旋转一下,让数据分布变得非常集中、可预测,然后改用极坐标来描述。就像把"往东走 3 个路口,往北走 4 个路口"变成"朝 37 度方向走 5 步"。因为角度分布已知且高度集中,不再需要给每小块数据算缩放系数了——量化开销直接消失
第二步:QJL —— 1 bit 清理残差
第一步压完还有微小的误差怎么办?TurboQuant 只用 1 个 bit 做一个 Johnson-Lindenstrauss 变换,把残差误差中的偏差干掉,保证内积计算(也就是注意力分数)不会跑偏。
这两步加在一起,就是 TurboQuant 的核心:PolarQuant 吃大头 + QJL 擦屁股,零额外开销,接近信息论下界。
论文里证明了,TurboQuant 和理论最优只差一个约 2.7 倍的常数因子
Google 在 Gemma 和 Mistral 模型上,用 LongBench、Needle-in-a-Haystack、ZeroSCROLLS、RULER、L-Eval 等一堆长上下文基准做了全面测试。
下面是各方法在不同任务上的聚合性能得分对比(包括问答、代码生成、摘要等任务):
Needle-in-a-Haystack 测试结果(在海量文本中找一根针):
TurboQuant 在所有基准上都实现了完美分数,同时将 KV 内存缩小了至少 6 倍。
再看速度——H100 上 4-bit TurboQuant 计算注意力的速度比原始 32-bit Key 快了 8 倍:
社区已经开始疯狂复现:
mlx-vlm 上的 TurboQuant Metal kernel 实现:
mlx-audio & mlx-vlm 创建者 Prince_Canuma 使用 Qwen3.5-35B-A3B 在 8.5K、32.7K 和 64.2K 的上下文长度中进行“大海捞针”测试:
→ 每个量化级别都达到 6/6 完全匹配 → TurboQuant 2.5 位:KV 缓存缩小 4.9 倍 → TurboQuant 3.5 位:KV 缓存缩小 3.8 倍
最棒的是:与完整 KV 缓存相比,准确率没有损失。
他在 mlx-vlm PR #858 里提交了 TurboQuant 的 Metal kernel 实现,包括:
_mse_score_kernel、_pack_lowbit_kernel、_unpack_lowbit_kernel —— 基础量化/反量化_qjl_score_kernel、_prod_score_kernel —— QJL 残差纠偏和内积计算_polar_prod_score_kernel、_polar_turbo_score_repeat_kernel —— 4-bit PolarQuant 路径_prod_score_multi_kernel、_mse_weighted_rot_multi_kernelMLX 上的 TurboQuant kernel 已经把解码速度追到了全精度的 **85-70%**(8K prompt 下 54 tok/s vs 62.5 tok/s),还在继续优化。
这意味着 Mac 用户很快就能在本地吃到这个红利
llama.cpp 集成:TurboQuant+ 已经跑通 Apple Silicon
开发者 TheTom 做了一个叫 turboquant_plus 的项目,直接把 TurboQuant 移植到了 llama.cpp,用 Metal kernel 在 Apple Silicon 上跑通了端到端推理。
M5 Max 128GB 上的实测:
| turbo3 | 4.6x | 2747 tok/s | 5.460 |
4.6 倍压缩,速度还比 q8_0 快了一丢丢,PPL 只涨了 0.8%。
这就是所谓的"三赢":压得狠、跑得快、质量几乎不掉。
实际使用也很简单,编译好他的 llama.cpp fork 之后:
# 用 TurboQuant 3-bit KV Cache 跑推理
./build/bin/llama-server \
-m models/your-model.gguf \
--cache-type-k turbo3 --cache-type-v turbo3 \
-ngl 99 -c 262144 -fa on \
--host 0.0.0.0 --port 8080
两个参数 --cache-type-k turbo3 --cache-type-v turbo3 就搞定了,其他什么都不用改。而且他在 Qwen 3.5 35B-A3B MoE 模型上验证过,2K 到 32K 各种上下文长度,速度都稳定在 q8_0 的 99% 左右。
这哥们还在做 TurboQuant+ 扩展,包括自适应 bit 分配、时序衰减压缩、MoE 感知压缩等,后续更值得期待。
vLLM 集成也来了:
开发者 Mitko Vasilev(@iotcoi)已经在 vLLM 上实现了 TurboQuant。
他在 USB 充电器大小的 HP ZGX 设备上,GB10 显卡跑出了 4,083,072 个 KV-cache tokens。
是的,你没看错,400 万 tokens 的 KV Cache。
他已经提交了 PR 估计合并需要时间。
说实话,我个人觉得这是 2026 年目前为止 LLM 推理领域最重要的进展,意义堪比当年 FlashAttention 把注意力从 O(n²) 优化成近似线性。
对开发者:
对 Mac 用户:
对云厂商:
对整个 AI 生态:
更值得尊敬的是,Google 选择了完全开放这项研究。
论文发了、代码路径清晰、社区可以自由复现。
他们完全可以把这个捂在 Gemini 里独享,但他们没有。
#TurboQuant #量化 #KVCache #推理优化 #Google
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-03-26
Claude Code auto mode 解析:如何用 AI 分类器替代人工审批
2026-03-26
Google 发了个压缩算法,内存砍 6 倍,速度快 8 倍,精度零损失
2026-03-26
Claude团队深夜祭出“自动模式”!网友看呆了:CC里程碑式进化!无人值班确实上头,但一周的token很快燃尽
2026-03-25
如何设计 Harness 工程,实现长时间自动开发应用
2026-03-25
拒绝“感觉有效”:用数据证明 AI Coding 的真实团队价值【天猫AI Coding实践系列】
2026-03-25
Anthropic说:不要在等下一代模型了,立刻马上做Harness!
2026-03-25
让Claude连跑6小时:Anthropic多智能体框架完整拆解
2026-03-24
上下文工程的六大支柱之:压缩(Compression)和 编排(Orchestration)
2026-01-24
2026-01-10
2026-01-01
2026-01-26
2026-01-09
2026-01-09
2026-01-23
2025-12-30
2026-01-14
2026-01-21
2026-03-22
2026-03-22
2026-03-21
2026-03-20
2026-03-19
2026-03-19
2026-03-19
2026-03-18