微信扫码
添加专属顾问
我要投稿
一键优化AI提示词,提升大模型输出质量,纯前端运行保障数据安全! 核心内容: 1. 智能优化提示词功能,支持多轮迭代与效果对比 2. 多模型支持与高级参数配置,满足不同需求 3. 纯前端架构设计,确保数据隐私与本地安全
Prompt Optimizer 是一款专为 AI 提示词优化而设计的前端工具,支持多模型、多平台、隐私保护,助你高效构造高质量 Prompt,从而提升 LLM 输出效果。
支持 网页版 与 Chrome 插件,开箱即用,免费开源!
•🎯 智能优化:一键优化提示词,支持多轮迭代,提升 AI 输出质量•🔍 效果对比:原始 vs 优化后提示词,结果直观可视•🤖 多模型支持:支持 OpenAI、Gemini、DeepSeek、智谱、SiliconFlow 等•⚙️ 高级参数配置:每个模型可单独设置 temperature、max_tokens 等•🔐 安全架构:纯前端运行,无后端中转,数据不出本地•💾 隐私保护:API 密钥与历史记录本地加密存储,支持导入导出•📱 多端使用:提供 Web 应用和 Chrome 插件•🌐 跨域兼容:支持 Vercel 边缘代理,解决 CORS 问题•🔑 访问控制:可设置访问密码,私有部署更安全
无需安装,直接访问:
👉 https://prompt.always200.com
✅ 所有数据仅保存在浏览器本地,纯前端实现,使用安全放心。
点击部署[2]
或手动操作:
1.Fork 本项目到 GitHub2.在 Vercel 中导入该仓库3.配置环境变量:•ACCESS_PASSWORD:访问密码•VITE_OPENAI_API_KEY 等:模型 API 密钥
详见:Vercel部署指南[3]
docker run -d -p 80:80--restart unless-stopped \--name prompt-optimizer linshen/prompt-optimizer
配置密钥与访问认证
docker run -d -p 80:80 \-e VITE_OPENAI_API_KEY=your_key \-e ACCESS_USERNAME=admin \-e ACCESS_PASSWORD=your_password \--restart unless-stopped \--name prompt-optimizer \ linshen/prompt-optimizer
git clone https://github.com/linshenkx/prompt-optimizer.gitcd prompt-optimizer# 可选:创建 .env 文件cat >.env << EOFVITE_OPENAI_API_KEY=your_keyACCESS_USERNAME=adminACCESS_PASSWORD=your_passwordEOFdocker compose up -d
查看日志:
docker compose logs -f
Chrome商店地址[4]
•可通过 Chrome Web Store 安装(注意版本更新可能延迟)•安装后点击浏览器图标,即可使用提示词优化器
1.点击右上角“⚙️设置”2.进入“模型管理”选项卡3.配置对应模型 API 密钥和高级参数4.支持设置 llmParams 自定义参数
有关 llmParams 的更详细说明和配置指南,请参阅 LLM参数配置指南[5]。
示例:
{"temperature":0.7,"max_tokens":4096,"timeout":60000}•OpenAI(gpt-3.5 / gpt-4 / gpt-4o)•Gemini(1.5-pro / 2.0-flash)•DeepSeek(chat / coder)•智谱(GLM-4 / GLM-4-Flash)•SiliconFlow、自定义兼容 API
👉 查看:LLM 参数配置指南
-e VITE_OPENAI_API_KEY=xxx-e VITE_GEMINI_API_KEY=xxx-e VITE_ZHIPU_API_KEY=xxx-e VITE_CUSTOM_API_BASE_URL=https://api.xxx.com/v1-e VITE_CUSTOM_API_MODEL=my-model
详细文档可查看 开发文档[6]
git clone https://github.com/linshenkx/prompt-optimizer.gitcd prompt-optimizerpnpm install# 启动开发服务pnpm dev # 构建 core/ui 并启动 Webpnpm dev:web # 仅运行前端pnpm dev:fresh # 重置后启动
A: 通常是浏览器 CORS 拦截所致,建议使用 Vercel 部署或代理方式。
export OLLAMA_ORIGINS=*export OLLAMA_HOST=0.0.0.0:11434
推荐:
1.使用 Vercel 代理(默认支持)2.自建代理(如 OneAPI),在设置中配置自定义 API 地址
# Fork 项目 & 创建分支git checkout -b feature/awesome-feature# 提交更改git commit -m "feat: 添加功能"# 推送 & 提交 PRgit push origin feature/awesome-feature
建议使用 cursor 工具进行本地 Code Review 后再提交 PR。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-01-07
从开源框架到深度研究,构建全栈量化知识体系
2026-01-07
陈天桥代季峰打响2026大模型第一枪:30B参数跑出1T性能
2026-01-06
Claude Code最强开源对手!GitHub 50.2k Star了,作者为它烧掉2.4w美元。
2026-01-06
英伟达发布并开源Alpamayo:自动驾驶终于开始讲道理了|甲子光年
2026-01-06
CES 2026 | NVIDIA 推出 Alpamayo 系列开源 AI 模型与工具,加速安全可靠的推理型辅助驾驶汽车开发
2026-01-05
从 Issues 到 Wishes:开源协作模式的范式转移
2026-01-04
AgentRun Sandbox SDK 正式开源!集成 LangChain 等主流框架,一键开启智能体沙箱新体验
2026-01-04
让 AI 接管 Windows 和 MacOS,这个 GitHub 开源项目牛啊。
2025-11-19
2025-10-20
2025-10-27
2025-10-27
2025-11-17
2025-12-10
2025-10-29
2025-11-07
2025-12-22
2025-10-21
2026-01-02
2025-12-24
2025-12-22
2025-11-12
2025-11-10
2025-11-03
2025-10-29
2025-10-28