微信扫码
添加专属顾问
我要投稿
炸裂!最强开源模型一夜之间易主。
阿里发布千问2.5模型,72B版本在MMLU、MATH、MBPP等大部分评测指标上都超过了Llama3 405B,甚至一些指标也超过了GPT4o。正式加冕最强开源模型新王!
今天要挑战用我的4GB老显卡不做量化、不做压缩,看看能不能跑起来这个72B模型。
X上边各个国家也都爆发了关于Qwen模型的讨论:
01
A100,H100暂时还没有购入,主要的原因是穷。
目前主力显卡是一个4GB的老显卡:
4GB显卡直接尝试运行时,是这个画风:
02
72B的千问用18T个token训练而成,有80层。加载这个模型大概需要37块我这样的4GB显卡。差得不多。还差36块。
因此需要想一个办法。
03
解决方案就是分层推理,每次只80层中的一层进显存:
04
代码全部开源到了开源项目AirLLM中,可以在github找到。
除了QWen2.5,AirLLM也支持Llama3 400B,Mixtral等模型。
叠个甲:4GB能跑但是速度肯定不会太快(4GB的卡还要啥自行车啊?)因此不适合chatbot等实时场景,仅适合异步数据处理等场景。
推理过程只需要几行代码:
from airllm import AutoModelMAX_LENGTH = 128model = AutoModel.from_pretrained("Qwen/Qwen2.5-72B-Instruct")input_text = [is the capital of United States?',]input_tokens = model.tokenizer(input_text,return_tensors="pt",return_attention_mask=False,truncation=True,max_length=MAX_LENGTH,padding=False)generation_output = model.generate(max_new_tokens=20,use_cache=True,return_dict_in_generate=True)output = model.tokenizer.decode(generation_output.sequences[0])print(output)
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-02-13
OpenClaw走红背后:当AI助手拥有你的邮箱和硬盘访问权
2026-02-13
OpenClaw 接入 GLM5/MiniMax M2.5 简易教程,来了
2026-02-12
超强开源 OCR 模型彻底颠覆了商业 OCR:轻量 0.9B 参数、多项能力达到了 SOTA 水平
2026-02-12
57分钟、6次交互、上千行深度思考!GLM-5从0到1开发因果关系图谱抽取及可视化系统实录
2026-02-12
GLM-5开源:迈向Agentic Engineering新范式
2026-02-12
GLM-5深夜登场,这是国产开源模型首次逼平Claude Opus 4.5。
2026-02-12
OpenClaw核心组件与飞书部署实践
2026-02-11
后发先至,新模型发布,全球进入DeepSeek狂欢周,连珠炮响了!
2025-11-19
2026-01-27
2026-01-29
2026-01-12
2026-01-30
2025-12-22
2025-11-17
2025-12-10
2026-01-28
2026-02-06
2026-02-11
2026-02-05
2026-01-28
2026-01-26
2026-01-21
2026-01-21
2026-01-20
2026-01-16