微信扫码
添加专属顾问
我要投稿
DSPy(声明式自改进语言程序),面向大模型编程的新方法,克服当前LLM应用开发的诸多缺点
今天,介绍一款当前这一领域最强工具——Ape,它是由YC资助的创业公司Weavel开发的一款prompt优化工具,它在GSM 8 K基准测试中得分高达93%,超过BaseLLM的70%及DSPy的86%。
同时,它也可以自动生成评估代码,并使用LLM作为判断,或者自己设置评估指标。
Ape的核心理念非常简单:
好的输入 + 正确的引导 = 更好的提示。
APE的设计实现受到DSPy的影响,采用数据+迭代的方式进行prompt自我优化,得益于平台产品化的设计,整体使用门槛大大降低,易于上手。
它具备以下能力:
通过分析prompt和数据集生成评估代码
运行批量测试来评估prompt
从之前的测试中提取反馈和洞察
通过使用贝叶斯优化等统计方法找到最佳prompt
在改进prompt时考虑Human-in-loop的反馈
它的工作原理如下:
记录输入输出:仅需一行代码,即可开始记录LLM的调用。
数据集过滤:Ape将日志过滤成数据集。
生成评估代码:Ape使用LLM作为复杂任务的评估者。
持续优化:随着更多生产数据的加入,Ape会持续优化提升prompt性能。
虽然,APE内核已经被开源到github(https://github.com/weavel-ai/Ape),但目前缺乏使用帮助,集成使用可能还需要再等一段时间。当前可以在Weavel产品上体验APE,过程比较简单:
通过创建prompt,添加数据,开启优化三步就能完成prompt优化,训练数据除了上传外,也可以通过接口采集,同时APE提供了prompt版本化以及评估的功能,包含大量的评估方法,如下图。
APE相较于其他工具在能力层面已达到prompt工具的高级水平(prompt的工具分级金字塔详见:一文探秘LLM应用开发(23)-Prompt(相关工具)),这样很容易形成这样的迭代机制,进而保证prompt一直能够不劣化,这和小模型每日更新避免模型性能衰退逻辑十分相似。
数据+迭代的模式已经被验证是行之有效的prompt优化方法,以此思路启发,进一步构建一个“数据+迭代”的自学习LLM应用将是一个新的热点命题。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-04-14
AI 工程化实战:如何像设计函数参数一样设计 System Prompt?
2026-04-14
Karpathy 的 CLAUDE.md,到底解决了什么问题
2026-04-09
如何让生成式AI更懂你?全新交互模型IAI,重塑人机协同范式
2026-04-07
不再触发Claude使用限制,大幅降低Token的10个有效习惯!
2026-03-31
Harness 不是加一行规则那么简单——我从三家顶级公司学到了什么
2026-03-27
别再死磕 PMF 了!AgaaS 时代,中国 To B 创业者的最后一张船票
2026-03-26
7 个 Karpathy 式提示词,让 Claude 变成你的研究员、工程师和思考搭档
2026-03-26
Claude Code终极指令速查表
2026-01-29
2026-02-26
2026-01-18
2026-01-30
2026-01-17
2026-02-24
2026-02-04
2026-01-18
2026-03-18
2026-03-07
2026-04-14
2026-02-28
2026-02-12
2026-02-12
2026-02-08
2026-02-05
2026-02-05
2026-01-23