微信扫码
添加专属顾问
我要投稿
腾讯开源POINTS-Reader:用语言模型重新定义文档解析,让AI自己学会"看图说话"。 核心内容: 1. 端到端视觉-语言OCR的创新架构设计 2. 自演化训练机制实现无监督持续优化 3. 在标准文档解析任务中展现的平衡性能优势
“用一个语言模型,看图说话,直接吐出结构化文本,靠自打自喂进化。”
端到端视觉-语言OCR:
输入一张文档图 → 输出 Markdown + HTML 表格,中间无OCR、无版式分析、无规则引擎。
| 视觉编码器 | ||
| 语言模型 | ||
| 输入格式 | ||
| 输出格式 |
→ 一切结构化,都是语言模型“猜”出来的。
→ 像人自学:先看教材,再自己做题,对答案,错的重来
无需人工标注真实数据 → 可无限扩展
模型越强,数据越准 → 正反馈闭环
| Edit Distance | ||
| TEDS | ||
| 读序错误 |
→ 不是最强,但最平衡:不输专业OCR,省掉5个模块。
→ 不适配:手写笔记、老档案、杂乱照片、多语言混排。
POINTS-Reader 不是OCR的升级,而是用LLM重构了OCR的定义:不是“识别文字”,而是“理解文档”。
它把十年的OCR技术栈,压缩成一个会看图的对话模型,靠自动生成数据成长,靠指令驱动一切。
它不完美,但它证明了一件事:你不需要复杂的系统,你只需要一个足够强的模型,和一个会“喂自己”的训练法。
https://github.com/Tencent/POINTS-Reader
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-04-09
很多人突然不玩小龙虾而用Hermes Agent了。我替你试了,跟小龙虾到底有啥不同?
2026-04-08
开源模型首超Opus4.6!智谱GLM-5.1登场,14小时后CUDA专家被冲了
2026-04-08
探索Agentic生产力:从“被动问答”到“自主分析”
2026-04-08
GLM-5.1 又是开源 SOTA?直接做个图片改字工具验验真假!
2026-04-08
GLM-5.1 开源:零介入,交付整套的 Linux 桌面系统
2026-04-08
DeepSeek 推出快速模式和专家模式
2026-04-07
vLLM v0.19.0 来了,适配 HuggingFace v5,多模态优化,CPU KV 缓存卸载
2026-04-04
Gemma 4开源!整整一年,谷歌终于想明白了!!!
2026-01-30
2026-01-27
2026-01-12
2026-01-29
2026-01-27
2026-01-21
2026-01-28
2026-01-26
2026-01-23
2026-01-26
2026-04-09
2026-04-01
2026-03-17
2026-03-13
2026-03-02
2026-02-05
2026-01-28
2026-01-26