微信扫码
添加专属顾问
我要投稿
一键优化AI提示词,提升大模型输出质量,纯前端运行保障数据安全! 核心内容: 1. 智能优化提示词功能,支持多轮迭代与效果对比 2. 多模型支持与高级参数配置,满足不同需求 3. 纯前端架构设计,确保数据隐私与本地安全
Prompt Optimizer 是一款专为 AI 提示词优化而设计的前端工具,支持多模型、多平台、隐私保护,助你高效构造高质量 Prompt,从而提升 LLM 输出效果。
支持 网页版 与 Chrome 插件,开箱即用,免费开源!
•🎯 智能优化:一键优化提示词,支持多轮迭代,提升 AI 输出质量•🔍 效果对比:原始 vs 优化后提示词,结果直观可视•🤖 多模型支持:支持 OpenAI、Gemini、DeepSeek、智谱、SiliconFlow 等•⚙️ 高级参数配置:每个模型可单独设置 temperature
、max_tokens
等•🔐 安全架构:纯前端运行,无后端中转,数据不出本地•💾 隐私保护:API 密钥与历史记录本地加密存储,支持导入导出•📱 多端使用:提供 Web 应用和 Chrome 插件•🌐 跨域兼容:支持 Vercel 边缘代理,解决 CORS 问题•🔑 访问控制:可设置访问密码,私有部署更安全
无需安装,直接访问:
👉 https://prompt.always200.com
✅ 所有数据仅保存在浏览器本地,纯前端实现,使用安全放心。
点击部署[2]
或手动操作:
1.Fork 本项目到 GitHub2.在 Vercel 中导入该仓库3.配置环境变量:•ACCESS_PASSWORD
:访问密码•VITE_OPENAI_API_KEY
等:模型 API 密钥
详见:Vercel部署指南[3]
docker run -d -p 80:80--restart unless-stopped \--name prompt-optimizer linshen/prompt-optimizer
配置密钥与访问认证
docker run -d -p 80:80 \-e VITE_OPENAI_API_KEY=your_key \-e ACCESS_USERNAME=admin \-e ACCESS_PASSWORD=your_password \--restart unless-stopped \--name prompt-optimizer \ linshen/prompt-optimizer
git clone https://github.com/linshenkx/prompt-optimizer.git
cd prompt-optimizer
# 可选:创建 .env 文件
cat >.env << EOF
VITE_OPENAI_API_KEY=your_key
ACCESS_USERNAME=admin
ACCESS_PASSWORD=your_password
EOF
docker compose up -d
查看日志:
docker compose logs -f
Chrome商店地址[4]
•可通过 Chrome Web Store 安装(注意版本更新可能延迟)•安装后点击浏览器图标,即可使用提示词优化器
1.点击右上角“⚙️设置”2.进入“模型管理”选项卡3.配置对应模型 API 密钥和高级参数4.支持设置 llmParams 自定义参数
有关 llmParams
的更详细说明和配置指南,请参阅 LLM参数配置指南[5]。
示例:
{"temperature":0.7,"max_tokens":4096,"timeout":60000}
•OpenAI(gpt-3.5 / gpt-4 / gpt-4o)•Gemini(1.5-pro / 2.0-flash)•DeepSeek(chat / coder)•智谱(GLM-4 / GLM-4-Flash)•SiliconFlow、自定义兼容 API
👉 查看:LLM 参数配置指南
-e VITE_OPENAI_API_KEY=xxx-e VITE_GEMINI_API_KEY=xxx-e VITE_ZHIPU_API_KEY=xxx-e VITE_CUSTOM_API_BASE_URL=https://api.xxx.com/v1-e VITE_CUSTOM_API_MODEL=my-model
详细文档可查看 开发文档[6]
git clone https://github.com/linshenkx/prompt-optimizer.git
cd prompt-optimizer
pnpm install
# 启动开发服务
pnpm dev # 构建 core/ui 并启动 Web
pnpm dev:web # 仅运行前端
pnpm dev:fresh # 重置后启动
A: 通常是浏览器 CORS 拦截所致,建议使用 Vercel 部署或代理方式。
export OLLAMA_ORIGINS=*export OLLAMA_HOST=0.0.0.0:11434
推荐:
1.使用 Vercel 代理(默认支持)2.自建代理(如 OneAPI),在设置中配置自定义 API 地址
# Fork 项目 & 创建分支
git checkout -b feature/awesome-feature
# 提交更改
git commit -m "feat: 添加功能"
# 推送 & 提交 PR
git push origin feature/awesome-feature
建议使用 cursor 工具进行本地 Code Review 后再提交 PR。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-08-23
字节跳动Web Infra 团队 开发的一款开源的 AI 操作助手,GitHub 收获 9.9k Star
2025-08-23
Sim Studio:开启AI工作流搭建新世界
2025-08-23
AI 应用构建范式之争:Dify vs Coze 战略分析,对初创公司的战略建议
2025-08-22
微软炸裂新开源!POML:用“网页”思维重塑LLM提示词工程,告别手搓Prompt噩梦!
2025-08-22
腾讯开源的知识库、智能问答、微信对话机器人
2025-08-22
深度评测智能体平台Coze Studio:附部署教程
2025-08-22
DeepSeek-V3.1发布,拿下全球开源第一,确实可以封神了!(附一手实测)
2025-08-22
阿里AI编程 IDE Qoder 正式发布,BAT 终于凑齐了!
2025-07-23
2025-06-17
2025-08-20
2025-06-17
2025-07-23
2025-08-05
2025-07-14
2025-08-20
2025-07-12
2025-07-29