2026年3月27日,来腾讯会议(限50人)了解掌握如何用Openclaw构建企业AI生产力
免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

阿里巴巴团队开源,OCR 又来一个高手,第一!

发布日期:2026-03-27 12:49:13 浏览次数: 1531
作者:Ai学习的老章

微信搜一搜,关注“Ai学习的老章”

推荐语

阿里巴巴开源OCR新模型Logics-Parsing-v2,在两大评测基准上拿下第一,不仅能处理传统文档,还能解析乐谱、流程图等复杂内容。

核心内容:
1. Logics-Parsing-v2在两大评测基准上的突破性表现
2. 模型新增的Parsing-2.0能力,支持乐谱、流程图等复杂内容解析
3. 与传统OCR模型的对比及优势分析

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

今天这位选手是阿里巴巴团队开源的 Logics-Parsing-v2,在两个主流 Benchmark 上直接拿了第一:自家的 LogicsDocBench 拿了 82.16 分,公开的 OmniDocBench-v1.5 拿了 93.23 分,都是目前最高分。

https://www.modelscope.cn/studios/Alibaba-DT/Logics-Parsing/summary?spm=label.24dbbd5e.0.0.34862eb7aIqtVk

这模型有啥不一样?

市面上 OCR 模型一大把,Logics-Parsing-v2 凭啥能打?核心就两个字:全能

传统 OCR 做的事情比较窄——识别文字、提取表格、处理公式。但实际文档远比这复杂:报纸那种多栏排版、跨页表格、竖排文字、手写内容……这些"脏活累活",大部分模型处理得都不太行。

Logics-Parsing-v2 在 v1 的基础上,除了把这些传统任务做得更好之外,还加了一个全新的能力维度,叫 Parsing-2.0——支持解析以下内容:

  • 流程图 / 思维导图 → 输出 Mermaid 格式
  • 乐谱 → 输出 ABC 记谱法
  • 代码块 / 伪代码 → 结构化提取
  • 化学分子式 → SMILES 格式

你没看错,它能看懂乐谱。这在 OCR 领域算是相当炸裂的能力了。

Logics-Parsing-v2 能力概览——从传统文档到流程图、乐谱、代码全覆盖

Benchmark 成绩单

先看自家的 LogicsDocBench,这是阿里专门建的评测集,900 页 PDF,覆盖三大场景:

场景
页数
包含内容
STEM 文档
218 页
物理、数学、工程等十多个学科
复杂排版
459 页
多栏、跨页表格、竖排、图文混排
Parsing-2.0
223 页
化学式、乐谱、代码块、流程图

在这个 Benchmark 上,Logics-Parsing-v2 以 82.16 分的总分排名第一,远超其他选手。



再看公开的 OmniDocBench-v1.5,这个是业界公认的文档解析评测标准。Logics-Parsing-v2 拿了 93.23 分,同样是最高分——比 Gemini 2.5 Pro、GPT-5、豆包 1.6 这些闭源大模型都高。

OmniDocBench-v1.5 评测结果——开源模型首次登顶

说实话,开源 OCR 模型在 OmniDocBench 上打赢闭源大模型,这还是头一次。之前我测过不少 OCR 模型,闭源的 Mathpix、doc2x 一直是天花板,现在这个天花板被捅穿了。

跟其他模型比怎么样?

在阿里自建的 Benchmark 上(v1 评测,数值越低越好,TEDS 越高越好):

几个值得关注的对比:

  • vs Gemini 2.5 Pro:Logics-Parsing 在英文文本(0.089 vs 0.115)、表格(0.165 vs 0.154 接近)上都有竞争力
  • vs Mathpix:公式识别 Mathpix 还是很强(0.06 vs 0.106),但综合能力 Logics-Parsing 更好
  • vs MonkeyOCR / GOT-OCR:全面领先,不在一个档次
  • vs 通用大模型(GPT-5、Qwen2.5VL-72B):专用模型优势明显

一个模型,端到端推理,不需要复杂的 pipeline,直接图片进、HTML 出。这个思路比传统的"检测+识别+后处理"流水线简洁太多了。

输出格式很讲究

Logics-Parsing-v2 输出的不是纯文本,而是结构化 HTML

每个内容块都带有:

  • 类别标签:段落、表格、图片、公式等
  • 边界框坐标:精确到像素级的位置信息
  • OCR 文本:识别出的内容

对于 Parsing-2.0 的新场景,输出格式也做了定制:

  • 流程图 → Mermaid 语法(可以直接渲染)
  • 乐谱 → ABC 记谱法(音乐人看得懂)
  • 化学式 → SMILES 格式(化学标准表示)

这意味着你拿到输出之后,不需要再做什么后处理,直接就能用。

怎么跑?

部署很简单:

conda create -n logics-parsing-v2 python=3.10
conda activate logics-parsing-v2
pip install -r requirements.txt

下载模型(HuggingFace 或 ModelScope 二选一):

# HuggingFace
pip install huggingface_hub
python download_model_v2.py -t huggingface

# ModelScope(国内更快)
pip install modelscope
python download_model_v2.py -t modelscope

推理一行搞定:

python3 inference_v2.py --image_path 你的图片路径 --output_path 输出目录 --model_path 模型路径

基于 Qwen3-VL 架构,对 GPU 有一定要求,但不算离谱。

实际效果展示

说了这么多数据,看几个实际效果:

扭曲文档识别——拍照角度歪斜、纸张弯曲,照样准确识别:

扭曲文档识别效果

STEM 文档——复杂的数学公式、物理图表,结构完整保留:

STEM 文档解析效果

代码块识别——不只是识别文字,还能保留代码结构:

代码块识别效果

流程图解析——识别流程图并转成 Mermaid 代码,可以直接渲染:

流程图解析效果

乐谱识别——这个真的是第一次在 OCR 模型里见到:

乐谱识别效果

总结

Logics-Parsing-v2 给我的感觉就是:OCR 这个赛道,终于有一个模型把"全能"两个字做到位了

  • 双 Benchmark 第一:LogicsDocBench 82.16,OmniDocBench-v1.5 93.23
  • Parsing-2.0:流程图、乐谱、代码、化学式,传统 OCR 碰都不碰的东西它全能解
  • 端到端单模型:不需要复杂 pipeline,图片进 HTML 出
  • 开源免费:代码和模型全部开放

如果你在做文档数字化、论文解析、知识库构建这类工作,这个模型真的值得试试。

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询