微信扫码
添加专属顾问
我要投稿
国产AI智谱GLM-4.5V视觉模型开源即屠榜,42项测试41项刷新纪录,多模态能力惊艳全场。 核心内容: 1. GLM-4.5V在图像识别、场景推理等六大核心场景的突破性表现 2. 开源即登顶HuggingFace榜单的技术参数与架构亮点 3. 配套开发者工具与真实案例演示(含前端复刻/证件识别等)
国产 AI 大模型公司智谱真的杀疯了。
上个月,他们开源的 GLM-4.1V-Thinking 荣登 HuggingFace Trending 第一,模型已获得累计超过 13 万次下载。
上周,又开源发布了令人惊艳的 GLM-4.5 和 GLM-4.5-Air 旗舰模型。
现在,基于 GLM-4.5-Air 沿用 GLM-4.1V-Thinking 的结构,训练出了更大更强的视觉模型 GLM-4.5V。
也直接给开源了,42 个榜单里,41个 SOTA。
01
直接看效果
02
项目简介
全球 100B 级效果最佳的开源视觉推理模型 GLM-4.5V(总参数 106B,激活参数 12B),已经在 GitHub 与 Hugging Face 开源。
GitHub: https://github.com/zai-org/GLM-VHugging Face: https://huggingface.co/zai-org/GLM-4.5V
上面是真实场景的体验,GLM-4.5V 虽然在多模态榜单上屠榜,在真实场景下的表现和可用性也堪称一绝。
覆盖了不同场景的视觉内容处理能力,包括:
图像推理(场景理解、复杂多图分析、位置识别)
视频理解(长视频分镜分析、事件识别)
GUI 任务(前端复刻、桌面操作辅助)
复杂图表与长文档解析
Grounding 能力(精准定位视觉元素)
为了让开发者快速体验到它的能力,还同步开源了一个桌面助手应用,它能实时的截屏、获取屏幕信息,并基于 GLM-4.5V 的多模态能力让很多有意思的场景落地。
开源链接:https://huggingface.co/spaces/zai-org/GLM-4.5V-Demo-App
AI 正在学会像人一样,把看到的、听到的、读到的信息揉在一起理解世界,变得更“通感”。
这种能综合处理多种信息并思考的能力,是迈向真正“聪明”AI 的关键,其中多模态 AI 是重要基石。这不仅仅是技术进步,更可能带来深远的文明影响。
快去亲自上手试试吧,有啥好玩的 Case 可以直接丢评论区。
体验地址:https://chat.z.ai
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-04-03
谷歌Gemma 4深夜炸场:首次采用 Apache 2.0 开源,或暗藏新Siri模型
2026-04-03
Gemma 4 来了:谷歌最强开源模型,把 Gemini 3 的能力塞进你的手机
2026-04-03
Google Gemma 4 开源|全面解读
2026-04-02
炸裂!Seedance 2.0 免费用!全网第一只接入的开源龙虾,效果离谱
2026-04-02
GLM-5.1 来了:开源模型第一次在长程任务上断档领先
2026-04-02
送你一只「传奇」稀有度的Claude Code电子宠物
2026-04-01
震惊!刚刚,Anthropic掀了桌子:OpenClaude横空出世,大模型闭源时代彻底终结?
2026-04-01
IMClaw:通过微信/飞书操控ClaudeCode/Codex/GeminiCLI/Pi Agent蜂群
2026-01-30
2026-01-27
2026-01-12
2026-01-29
2026-01-27
2026-01-21
2026-01-28
2026-01-06
2026-01-23
2026-01-26
2026-04-01
2026-03-17
2026-03-13
2026-03-02
2026-02-05
2026-01-28
2026-01-26
2026-01-21