微信扫码
添加专属顾问
我要投稿
AI实现自我进化!Anthropic突破性研究让模型通过自我评估实现能力跃升,60%胜率超越人类监督版本。核心内容: 1. ICM技术原理:模型自我生成标签并评估一致性 2. 自我监督搜索过程:通过连贯性分数优化标签 3. 实验结果:在多项任务上超越人类标注表现
AI 学会了自我打分和学习,然后实现自我提升!
Anthropic的研究人员找到了一种让语言模型自我微调的方法——模型通过评估自己的答案来提升能力,彻底摆脱了人类标注的瓶颈。
这项名为Internal Coherence Maximization(ICM)的技术让预训练模型能够生成并信任自己的标签。在数学、事实检验和对话质量等任务上,它的表现与黄金标准训练相当,甚至超越了人类标注。
最令人震撼的是,用这种自我微调方法训练的Claude 3.5 Haiku助手,在对比测试中60%胜率击败人类监督版本。
预训练语言模型已经储存了丰富的真理、正确性和偏好概念。ICM要做的就是在没有外部帮助的情况下激发这些概念。
ICM定义了一个评分系统,结合了两个关键要素:
相互可预测性:模型预测每个标签时,会参考其他所有已标记的例子。如果所有标签都指向同一个底层概念,预测概率就会很高。
逻辑一致性:防止出现明显矛盾,比如「A胜过B」和「B胜过A」不能同时为真。即使是「不同数值答案不能都正确」这样简单的规则,也足以阻止退化解。
由于穷举搜索不可行,ICM采用了巧妙的策略:
上图展示了ICM如何衡量一批标签是否协调一致。
三个声明已经有了临时的真假标签。模型每次隐藏一个标签,从其余两个推测它,并记录猜对的对数似然。将这三个数字相加得到一个连贯性分数——总和越高,标签越符合模型自己的一致性感知。
下图展示了改进这些标签的搜索循环。系统从一个有临时标签的小型算术数据集开始,采样一个新陈述,创造几个符合基本算术逻辑的替代标签,并用相同的连贯性指标为每个候选项打分。
算法从随机选择少量未标记例子开始,分配粗略标签,然后快速修复任何逻辑冲突。接着进入循环:
ConsistencyFix算法扫描数据集中的冲突对,比如一个声明说某陈述为真,另一个说为假。它列出所有可能的一致性组合,询问模型哪个选项能得到最佳整体连贯性分数。如果新组合提升了分数,就保留更改。
这个过程确保每个新标签都能触发对旧错误的修复,而不是被简单丢弃。
在Llama 3.1模型上,ICM在TruthfulQA和GSM8K验证上匹配了黄金标签微调,在Alpaca上击败了众包监督。
在作者性别预测这个模型超人类的任务上,ICM达到80%准确率,而人类只有60%。
标注成本适中,每个数据点只需要2-4次前向传播。
团队在40万个提示对上仅使用ICM标签训练了Claude 3.5 Haiku的奖励模型,在Rewardbench上得分75%,超过人类标注基线的72.2%。
左图比较了两个奖励模型。在Alpaca数据上,无监督模型达到约68%准确率,比人类标注版本高10个百分点。在更大的生产数据集上,它仍领先几个百分点。
右图追踪了用每个奖励模型训练的聊天机器人在直接对决中的胜率。由无监督奖励模型指导的机器人赢得约60%的比赛。
当基础模型中不存在所需概念时,ICM会失败。
一个仅基于「太阳」一词的诗歌质量任务退化为随机猜测。
由于评分需要将许多例子放入上下文,具有超长输入的任务仍然无法触及。
内部连贯性是网络内部已经存在的强大监督信号,简单的逻辑检查让搜索保持在正轨上。
当目标技能是潜在的,模型可以在没有一个人类标签的情况下自我完善。
Jiahao Lu(@jiahao_lu_)提出了关键问题:
这是否意味着激发出的能力严格受限于预训练模型?它不是在开发新东西,只是在预训练的庞大分布中选择期望的子分布?
Stephen McAleer(@McaleerStephen):
非常酷!
Aki Ranin(@aki_ranin)更直接:
人类在循环中没戏了。
Michael Spencer(@ReadFuturist)则表示怀疑:
击败人类意味着什么?Anthropic甚至无法让Claude写自己的博客。
Oyx(@Test20061722)指出评估方法的潜在问题:
助手胜率只由专有奖励模型判断,而非盲测的人类评估。基于模型的判断可能偏向钻空子的策略,60%胜率可能无法转化为真实的人类偏好!
Xuandong Zhao(@xuandongzhao)分享了他们的「无需外部奖励学习推理」研究。Jiaxin Wen澄清了两项工作的区别:
最近的「无监督学习」论文主要关注推理基准+强化学习,而我们更关注通用的、模糊的奖励建模任务+监督微调。SFT的训练动态对我来说更清晰——用随机演示进行SFT肯定会导致更差的性能。
为确保结果可靠,团队进行了多次验证,包括将数据集复制到新文件(排除所有标签)重新运行算法,一位合著者还使用不同代码库独立复现了结果。
AI真的在「左脚踩右脚」了——
通过自己给自己打分、自己纠正自己的错误,模型实现了自我提升。
这种自我微调的能力让AI彻底摆脱了人类监督的枷锁,正在向着真正的自主学习迈进。
虽然现在还不能真的「上天」,但这或将是通往AGI的重要一步。
论文原文: https://alignment-science-blog.pages.dev/2025/unsupervised-elicitation/paper.pdf
[2]项目博客: https://alignment-science-blog.pages.dev/2025/unsupervised-elicitation/
[3]代码仓库: https://github.com/Jiaxin-Wen/Unsupervised-Elicitation
[4]arXiv论文: https://arxiv.org/abs/2506.10139
?
?
?
另外,我还用AI 进行了全网的AI 资讯采集,并用AI 进行挑选、审核、翻译、总结后发布到《AGI Hunt》的知识星球中。
这是个只有信息、没有感情的 AI 资讯信息流(不是推荐流、不卖课、不讲道理、不教你做人、只提供信息)
欢迎你的加入!也欢迎加群和2000+群友交流
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-03-20
2025-03-24
2025-03-24
2025-04-01
2025-03-24
2025-04-30
2025-03-20
2025-03-20
2025-03-20
2025-03-17