微信扫码
添加专属顾问
我要投稿
阿里云最新推理模型QwQ-32B强势来袭,性能媲美671B,资源占用极低,开源免费商用! 核心内容: 1. QwQ-32B模型参数、性能与DeepSeek-R1的对比 2. QwQ-32B的开源协议、下载方式及部署优势 3. QwQ-32B发布对行业的影响及未来AI大模型的发展趋势
huggingface:
https://huggingface.co/Qwen/QwQ-32B
hf镜像站:
http://hf-mirror.com/Qwen/QwQ-32B
ollama:
https://ollama.com/library/qwq
也可以使用ollama直接拉取该模型,命令如下:
ollama run qwq
相比较deepseek-r1 671b满血版,QwQ的资源占用极低!ollama平台q4量化版,仅占用20G显存,全量模型所需的显存也不超过80G即可实现流畅推理!另外,有小道消息说有DS相关人员提供技术支持哦!
QwQ-32B发布后,影响感觉还是很大的,尤其是对之前花了很多上671B的客户们来说,可能会肉疼一段时间吧!现在AI大模型的更新迭代太快,自从DeepSeek开源后,的的确确是促进了整个大模型的跃进式迭代更新,期待这些头部企业能够给我们带来更多更好的技术吧!
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-04-09
很多人突然不玩小龙虾而用Hermes Agent了。我替你试了,跟小龙虾到底有啥不同?
2026-04-08
开源模型首超Opus4.6!智谱GLM-5.1登场,14小时后CUDA专家被冲了
2026-04-08
探索Agentic生产力:从“被动问答”到“自主分析”
2026-04-08
GLM-5.1 又是开源 SOTA?直接做个图片改字工具验验真假!
2026-04-08
GLM-5.1 开源:零介入,交付整套的 Linux 桌面系统
2026-04-08
DeepSeek 推出快速模式和专家模式
2026-04-07
vLLM v0.19.0 来了,适配 HuggingFace v5,多模态优化,CPU KV 缓存卸载
2026-04-04
Gemma 4开源!整整一年,谷歌终于想明白了!!!
2026-01-30
2026-01-27
2026-01-12
2026-01-29
2026-01-27
2026-01-21
2026-01-28
2026-01-26
2026-01-23
2026-01-26
2026-04-09
2026-04-01
2026-03-17
2026-03-13
2026-03-02
2026-02-05
2026-01-28
2026-01-26