微信扫码
添加专属顾问
我要投稿
一键优化AI提示词,提升大模型输出质量,纯前端运行保障数据安全! 核心内容: 1. 智能优化提示词功能,支持多轮迭代与效果对比 2. 多模型支持与高级参数配置,满足不同需求 3. 纯前端架构设计,确保数据隐私与本地安全
Prompt Optimizer 是一款专为 AI 提示词优化而设计的前端工具,支持多模型、多平台、隐私保护,助你高效构造高质量 Prompt,从而提升 LLM 输出效果。
支持 网页版 与 Chrome 插件,开箱即用,免费开源!
•🎯 智能优化:一键优化提示词,支持多轮迭代,提升 AI 输出质量•🔍 效果对比:原始 vs 优化后提示词,结果直观可视•🤖 多模型支持:支持 OpenAI、Gemini、DeepSeek、智谱、SiliconFlow 等•⚙️ 高级参数配置:每个模型可单独设置 temperature、max_tokens 等•🔐 安全架构:纯前端运行,无后端中转,数据不出本地•💾 隐私保护:API 密钥与历史记录本地加密存储,支持导入导出•📱 多端使用:提供 Web 应用和 Chrome 插件•🌐 跨域兼容:支持 Vercel 边缘代理,解决 CORS 问题•🔑 访问控制:可设置访问密码,私有部署更安全
无需安装,直接访问:
👉 https://prompt.always200.com
✅ 所有数据仅保存在浏览器本地,纯前端实现,使用安全放心。
点击部署[2]
或手动操作:
1.Fork 本项目到 GitHub2.在 Vercel 中导入该仓库3.配置环境变量:•ACCESS_PASSWORD:访问密码•VITE_OPENAI_API_KEY 等:模型 API 密钥
详见:Vercel部署指南[3]
docker run -d -p 80:80--restart unless-stopped \--name prompt-optimizer linshen/prompt-optimizer
配置密钥与访问认证
docker run -d -p 80:80 \-e VITE_OPENAI_API_KEY=your_key \-e ACCESS_USERNAME=admin \-e ACCESS_PASSWORD=your_password \--restart unless-stopped \--name prompt-optimizer \ linshen/prompt-optimizer
git clone https://github.com/linshenkx/prompt-optimizer.gitcd prompt-optimizer# 可选:创建 .env 文件cat >.env << EOFVITE_OPENAI_API_KEY=your_keyACCESS_USERNAME=adminACCESS_PASSWORD=your_passwordEOFdocker compose up -d
查看日志:
docker compose logs -f
Chrome商店地址[4]
•可通过 Chrome Web Store 安装(注意版本更新可能延迟)•安装后点击浏览器图标,即可使用提示词优化器
1.点击右上角“⚙️设置”2.进入“模型管理”选项卡3.配置对应模型 API 密钥和高级参数4.支持设置 llmParams 自定义参数
有关 llmParams 的更详细说明和配置指南,请参阅 LLM参数配置指南[5]。
示例:
{"temperature":0.7,"max_tokens":4096,"timeout":60000}•OpenAI(gpt-3.5 / gpt-4 / gpt-4o)•Gemini(1.5-pro / 2.0-flash)•DeepSeek(chat / coder)•智谱(GLM-4 / GLM-4-Flash)•SiliconFlow、自定义兼容 API
👉 查看:LLM 参数配置指南
-e VITE_OPENAI_API_KEY=xxx-e VITE_GEMINI_API_KEY=xxx-e VITE_ZHIPU_API_KEY=xxx-e VITE_CUSTOM_API_BASE_URL=https://api.xxx.com/v1-e VITE_CUSTOM_API_MODEL=my-model
详细文档可查看 开发文档[6]
git clone https://github.com/linshenkx/prompt-optimizer.gitcd prompt-optimizerpnpm install# 启动开发服务pnpm dev # 构建 core/ui 并启动 Webpnpm dev:web # 仅运行前端pnpm dev:fresh # 重置后启动
A: 通常是浏览器 CORS 拦截所致,建议使用 Vercel 部署或代理方式。
export OLLAMA_ORIGINS=*export OLLAMA_HOST=0.0.0.0:11434
推荐:
1.使用 Vercel 代理(默认支持)2.自建代理(如 OneAPI),在设置中配置自定义 API 地址
# Fork 项目 & 创建分支git checkout -b feature/awesome-feature# 提交更改git commit -m "feat: 添加功能"# 推送 & 提交 PRgit push origin feature/awesome-feature
建议使用 cursor 工具进行本地 Code Review 后再提交 PR。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-11-22
ollama v0.13.0 发布:DeepSeek-OCR、Cogito-V2.1 全新支持,性能工具 Bench 正式上线
2025-11-19
腾讯云开源DeepSeek量化部署方案:性能最高提升3.9X!
2025-11-19
全新AI编程工具 Google Antigravity 实测,特别适合产品经理
2025-11-19
20M小模型的数学公式OCR,复杂公式截图秒转LaTeX代码!
2025-11-18
高瓴、红杉一起投了一家出海销售Agent
2025-11-18
第一次用 Ollama 跑视觉模型:Qwen2.5-VL 7B 给了我一个意外惊喜
2025-11-18
MiroMind 最新模型发布!深度交互Scaling!模拟人类处理复杂问题的智能体基座模型 MiroThinker v1.0
2025-11-17
4.5K Star!文档管理AI神器Paperless-AI:自动分类打标签,语义搜索秒找文件!
2025-09-07
2025-08-26
2025-09-06
2025-10-20
2025-09-08
2025-10-27
2025-10-27
2025-10-03
2025-09-17
2025-08-28
2025-11-12
2025-11-10
2025-11-03
2025-10-29
2025-10-28
2025-10-13
2025-09-29
2025-09-17