微信扫码
添加专属顾问
我要投稿
字节开源"扣子罗盘"帮你解决AI Prompt性能飘忽不定的痛点,让AI表现稳定可靠! 核心内容: 1. 扣子罗盘的核心功能:标准化评测Prompt性能 2. 详细使用教程:从创建评测集到分析结果 3. 实际应用案例:小红书标题生成场景评测
在开发AI应用时,一个精心调校的Prompt,即使昨天表现惊艳,今天面对新问题时也可能突然“智商掉线”。这种难以捉摸、时好时坏的状态,是所有AI应用开发者心中的痛。毕竟,在生产环境中,我们追求的是AI服务持续、可靠的稳定表现。
字节最近在开源coze studio
的同时,也发布了coze loop
,即扣子罗盘。这或许是一个容易被忽略的工具,但它却是解决这一困境的关键。其核心价值在于,它能为你的AI模型提供一场——标准化的“实验”,从而帮助开发者实现更科学的评估和提升。
现在让我手把手教你使用扣子罗盘这个强大的评测工具。
“实验”这个词听起来可能有些学术,但别担心,它的本质可以用一个简单的比喻来概括:给你的AI模型办一场严谨的期末考试。
在这场大考中,有几个核心角色:
Prompt
、一个扣子智能体
,或是一个复杂的扣子工作流
。通过解读这份“成绩单”,我们能清晰地洞察AI的强项与弱点,从而进行有针对性的“补课”(调试优化),让它的能力日趋稳定与强大。
我们以“小红书爆款标题生成”这一真实场景为例,带你走完这场“AI期末考”的全流程。
一场好的考试,始于一份高质量的试卷。我们需要创建一份包含各类典型场景的“考卷”。
📌 关键一步:提交新版本
考卷就绪,接下来需要一位严格的“阅卷官”。
这正是“扣子罗盘”的精妙之处:这位“阅卷官”,本身也是一个由Prompt驱动的AI。 换言之,我们正在用AI来评估AI。
我们需要为这位“AI阅卷官”提供一份详尽的“阅卷指南”(即提示词),清晰定义评分的标准与流程。
例如,下面是官方模板中的一位评判“指令遵从度”的阅卷官:
title:"指令遵从度"评估器
你的任务是判断 AI 助手生成的回答是否严格遵循了系统或用户的提示指令。
<评判标准>
- 如果 AI 回答完整、准确地响应了提示指令的要求,且未偏离任务,则得 1 分。
- 如果 AI 回答部分遵循了指令,但存在遗漏或偏离部分要求,得 0 分。
- 如果 AI 回答完全忽略或违背了指令,则得 0 分。
</评判标准>
<输入>
[提示指令]:{{instruction}}
[AI 回答]:{{ai_response}}
</输入>
<思考指导>
请仔细阅读提示指令,准确理解用户或系统希望模型执行的操作内容。然后判断 AI 的回答是否严格遵循了这些指令,是否完全准确地完成了任务要求。
根据Prompt 中的评判标准一步步思考、分析,满足评判标准就是 1 分,否则就是 0 分。
</思考指导>
{{instruction}}
和“考生回答”{{ai_response}}
,而它的输出格式高度规范:一个【0到1】以下是“小红书标题评审专家”的详细指令。我首先要求AI阅卷官必须先深度思考,再给出分数。它有三个输入参数:帖子的{{POST_CONTENT}}
,我们提供的参考爆款标题{{REFERENCE_TITLES}}
(标准答案),和考生AI生成的{{CANDIDATE_TITLE}}
(考生答案)。
你是一位资深的小红书爆款标题专家评估师。你的任务不是创作,而是根据用户提供的“参考标题”作为唯一的黄金标准,来评估一个“待评估标题”的质量。
你的评估过程必须严格遵循以下逻辑:
1. **深度分析参考标题**: 首先,仔细研究“参考标题”列表,在`<思考>`标签内提炼出它们的共同特征。这包括但不限于:
* **核心词/主题**: 它们都围绕哪些关键词展开?(例如:“省钱”、“变美”、“踩坑”)
* **句式结构**: 它们是陈述句、疑问句还是感叹句?是否有固定的模式(如“数字+方法”、“问题+解决方案”)?
* **情绪钩子**: 运用了哪些词语来吸引眼球、引发共鸣或好奇?(例如:“绝了”、“救命”、“后悔没早知道”)
* **目标人群**: 是否明确或暗示了目标读者?(例如:“学生党”、“打工人”、“新手妈妈”)
* **符号/格式**: Emoji、空格、特殊符号的使用风格是怎样的?
2. **对标评估待评估标题**: 接下来,在`<思考>`标签内,将“待评估标题”与你刚提炼出的特征标尺进行比较,判断它在多大程度上模仿了参考标题的风格和精髓。
3. **给出评分和原因**: 基于以上对比分析,给出一个最终评分和评价。
* **评分标准**: 0-1分
* **0.8-1分**: 高度符合。风格、关键词、结构和情绪钩子都与参考标题非常匹配,几乎可以以假乱真。
* **0.5-0.7分**: 基本符合。抓住了部分核心元素,但在语气、细节或“网感”上存在一定偏差。
* **0.1-0.4分**: 不太符合。与参考标题的风格和核心要素相去甚远,没有学到精髓。
* **原因**: 清晰地说明你打分的原因。必须具体指出“待评估标题”的优点(与参考标题相似之处)和缺点(与参考标题不同之处)。
下面是一个完整的评估示例,请严格按照此格式执行任务。
...(示例部分与原文相同,此处省略以保持简洁)...
现在,请根据以下内容开始你的评估。
<帖子内容>
{{POST_CONTENT}}
</帖子内容>
<参考标题>
{{REFERENCE_TITLES}}
</参考标题>
<待评估标题>
{{CANDIDATE_TITLE}}
</待评估标题>
{{POST_CONTENT}}
的变量“空位”。这样,考试开始时,系统就能自动将“考卷”中的题目(帖子内容)逐一填入,让Prompt批量作答。
**📌 一个同样关键的提醒:请再次确认,你已点击右上角的“提交新版本”!**
与评测集一样,你的Prompt也必须提交版本,才能被成功“拉入考场”。这一步是确保“考生”能准时参加考试的基础。
简单来说,“评测对象”回答了这样一个问题:“今天我们到底要对谁进行考试?”
目前,扣子罗盘支持三种“考生”类型:
Prompt
Coze 智能体
Coze 工作流
万事俱备。现在,让我们把“考卷”、“考生”和“阅卷官”集合到“考场”中,正式启动实验。
Prompt
作为评测对象后,你需要明确三件事:{{POST_CONTENT}}
。POST_CONTENT
的那一列数据,填入Prompt的这个“空位”。如此,数据通路便被打通。若评测对象是更复杂的Coze 工作流
或智能体
,流程也大同小异。例如,选择工作流后,系统会自动识别其输入参数。你要做的同样是“字段映射”——将“考卷”里的对应数据“喂”给这些参数。
Coze工作流评测
而智能体的核心输入通常是用户的提问input
,映射关系更为直接。
对于使用LangChain或dify等框架自建AI应用的专业开发者而言,若能直接评测一个API接口,评估效率将极大提升,目前“扣子罗盘“不支持,需要进行二开。
Note
在真实的生产环境中,可以考虑对平台进行二次开发,增加“API”类型的评测对象。这样,只需传入API地址和认证信息,即可将任何外部AI服务无缝接入这个强大的评测体系。
此时,系统会自动解析出这位“阅卷官”需要三项输入:帖子内容、参考标题、待评估标题。
{{POST_CONTENT}}
→ 从评测集的input
列获取。{{REFERENCE_TITLES}}
→ 从评测集的reference_output
列获取(标准答案)。{{CANDIDATE_TITLE}}
→ 从上一步**评测对象(Prompt)**的输出结果中获取(考生答案)。至此,一条清晰的数据流已经形成:考卷出题 → 考生答题 → 阅卷官拿着题目、考生答案和标准答案进行批改。
这份报告,就是我们告别“玄学调优”的科学依据。它不仅是一个冰冷的分数,更是我们洞察AI模型能力、进行精准迭代的起点。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-08-26
语音界Sora!微软刚开源新模型,一次生成90分钟语音、3200倍压缩率
2025-08-25
AI实战:我用锤子砸对了哪些钉子?| 沃垠AI一周年见面会
2025-08-25
比GPT-5还准?AIME25飙到99.9%刷屏,开源模型首次!
2025-08-24
AI咨询手册:OpenAI如何建立AI的麦肯锡
2025-08-23
字节跳动Web Infra 团队 开发的一款开源的 AI 操作助手,GitHub 收获 9.9k Star
2025-08-23
Sim Studio:开启AI工作流搭建新世界
2025-08-23
AI 应用构建范式之争:Dify vs Coze 战略分析,对初创公司的战略建议
2025-08-22
微软炸裂新开源!POML:用“网页”思维重塑LLM提示词工程,告别手搓Prompt噩梦!
2025-07-23
2025-06-17
2025-08-20
2025-06-17
2025-07-23
2025-08-05
2025-07-14
2025-08-20
2025-07-12
2025-07-29