微信扫码
添加专属顾问
我要投稿
大海捞针NeedleInAHaystack已经成为评测大模型长文本能力的基本方法,鹅厂的MLPD实验室整了个花活,用小企鹅数星星的方法测试大模型的长文本能力.
鹅厂就是小企鹅数星星,要是达摩院会不会是平头哥数眼镜蛇
在一项研究中,为了评估语言模型处理长文本和长距离依赖关系的能力,研究人员设计了一个测试,其中文本长度逐渐增加,直至最大长度达到128,000个字符。
实验中,研究人员选用了中国古典名著《红楼梦》作为基础文本,并在其中随机插入了特定格式的句子——“小企鹅数了x颗星星”,这里的x是一个变化的数字。
研究人员将整段文本划分为N个部分,并在这些部分中插入了M个上述格式的句子。
随后,模型的任务是识别并提取出所有包含数字的句子,并将这些数字以JSON格式输出,输出内容仅包含数字。
在模型完成输出后,研究人员将模型识别出的数字与实际插入文本中的数字(Ground Truth)进行比较,以计算模型的准确率。
这种“数星星”的测试方法相比传统的“大海捞针”测试更能准确地衡量模型处理长文本和长距离依赖关系的性能。通过这种方法,研究人员可以更深入地了解模型在处理复杂信息和执行细致任务方面的潜力。
大海捞针”中插入多个“针”就是插入多个线索,然后让大模型找到并串联推理多个线索,并获得最终答案。
但实际的“大海捞多针”测试中,模型并不需要找到所有“针”才能答对问题,甚至有时只需要找到最后一根就可以了。
但“数星星”则不同,因为每句话中“星星”的数量都不一样,模型必须把所有星星都找到才能把问题答对。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-12-14
我微调了一个LangChain专家模型,离Vibe Agent又近了一步
2025-12-11
左脚踩右脚:大模型的有趣且简单的微调方式“SHADOW-FT”
2025-12-11
大模型训练的高效内存解决方案:流水线感知的细粒度激活卸载,实现显存开销与吞吐性能的联合最优
2025-12-08
一杯咖啡成本搞定多模态微调:FC DevPod + Llama-Factory 极速实战
2025-12-04
OpenAI公开新的模型训练方法:或许能解决模型撒谎问题,已在GPT-5 thiking验证
2025-11-23
微调Rerank模型完整指南
2025-11-22
大模型微调全流程实战指南:基于IPO框架的深度解析与优化
2025-11-21
AI基础 | Qwen3 0.6B 微调实现轻量级意图识别
2025-10-12
2025-10-14
2025-10-21
2025-09-24
2025-09-20
2025-09-25
2025-11-05
2025-11-05
2025-11-21
2025-12-04