微信扫码
与创始人交个朋友
我要投稿
❝在人工智能领域,评估模型性能和输出质量一直是一个重要且复杂的问题。随着大规模语言模型(LLM)的广泛应用,如何有效评估这些模型的输出变得尤为关键。本文将探讨吴恩达来信中提出的LLM-as-a-Judge的困境,并介绍LangSmith和OpenAI在这一领域的前沿研究和解决方案。
吴恩达老师提出了大语言模型评估的两种主要类型
基于以上两类的评估类型,吴恩达提出了使用如下几点困境。
在评估LLM性能时,创建一个有标记的测试集是非常必要的。然而,手动标记数据集不仅耗时,而且成本高昂。这对资源有限的团队来说是一个巨大的挑战。
虽然人类专家可以提供高质量的评估,但在实际操作中,这种方法并不可行。主要原因是专家资源稀缺且昂贵。另一方面,使用高级的LLM进行评估虽然可以降低成本,但其评估结果存在噪声,导致其可靠性仍然存在问题。
每次评估都需要额外消耗大量的计算资源,特别是在处理大规模数据时。这不仅增加了时间成本,还带来了额外的token成本。这对需要频繁评估的团队来说是一个不小的负担。
LangSmith以few-shot和持续于人类对齐作为其理论根基提出了一个新颖的工程化解决方案。即将人类对 LLM-as-a-Judge 输出的纠正存储为 few-shot 示例,然后在未来的迭代中将其反馈到提示中。
其实现的的具体逻辑如下:
首先,LangSmith提出了一种基于few-shot学习的方法来提升LLM评估的正确率。通过将少量示例作为输入,模型可以更好地理解评估标准,从而提高评估的准确性。
其次,LangSmith还引入了反馈收集机制,通过程序化地将LLM评估与人类偏好对齐。具体来说,用户可以对LLM的评估进行修正,这些修正将作为示例反馈给模型,以便在未来的评估中参考。
为了简化操作,LangSmith实现了自动化反馈收集流程。用户在应用中对评估结果进行修正后,这些修正将自动存储并用于未来的评估。这种持续改进的机制使得评估过程更加高效和准确。
OpenAI也一直在探索LLM评估的新方法。他们开发了一种名为CriticGPT的模型,旨在让AI成为更严苛的评判者,其思路是训练一个专门挑错的模型:
OpenAI让人类标注员在ChatGPT生成的代码里故意植入一些微妙的bug。
标注员扮演代码审查员的角色,写下他们对这些bug的评论。
用这些数据来训练CriticGPT,让它学会如何发现和指出代码中的问题。
在训练过程中,标注员会插入一些隐蔽的bug,并验证这些bug是否能够骗过当前版本的CriticGPT。通过这种方法,CriticGPT被迫不断进化,以便发现越来越隐蔽的问题。
CriticGPT使用了一种称为强制采样束搜索(FSBS)的技术,这种技术可以在生成评论时保持全面性,同时减少“幻觉”和“鸡蛋里挑骨头”现象。这使得CriticGPT能够生成更为准确和有用的评论。
具体来说,FSBS会强制模型生成多个不同的评论片段,用奖励模型对这些片段进行评分,最后根据评分和一个长度修正因子来选择最佳的评论组合。
通过调整长度修正因子,可以在评论的全面性和准确性之间找到最佳平衡点,既不会错过重要问题,又不会过度挑剔。
评估大规模语言模型的输出质量是一个复杂且重要的任务。LLM-as-a-Judge概念虽然有其困境,但通过LangSmith和OpenAI的前沿研究,我们看到了有效解决这些问题的希望。
这些进展不仅推动了AI评估技术的发展,也为未来的AI应用提供了坚实的基础。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-05-28
2024-04-26
2024-08-13
2024-08-21
2024-07-09
2024-04-11
2024-07-18
2024-08-04
2024-10-25
2024-07-01
2024-12-03
2024-12-01
2024-11-29
2024-11-26
2024-11-25
2024-11-21
2024-11-18
2024-11-14