微信扫码
添加专属顾问
我要投稿
在任何企业中使用 Agentic(代理的) RAG 的最简单方法!配置起来与OpenAI 的自定义GPTs一样简单。
嘿,欢迎来到Aitrainee的频道。今天我要给大家介绍一个非常酷的新应用——RAGApp。
配置起来与OpenAI 的自定义GPTs一样简单,但可以使用 Docker 在你自己的云基础架构中部署。使用LlamaIndex(LLM 应用程序的数据框架开源项目)构建。
▲ 配置起来与OpenAI 的自定义 GPT一样简单
油管博主:AlCodeKing / 字幕译:Aitrainee,链接在这里:
https://www.youtube.com/watch?v=V2tQVzyQiiY
要运行 RAGapp,请使用镜像启动一个 Docker 容器:
docker run -p 8000:8000 ragapp/ragapp
启动容器后,在浏览器中访问 http://localhost:8000/admin 来配置 RAGapp。可以选择使用 OpenAI 或 Gemini 的托管 AI 模型,或者使用 Ollama 的本地模型。
Docker 容器暴露以下端点:
管理 UI: http://localhost:8000/admin
聊天 UI: http://localhost:8000
API 文档: http://localhost:8000/docs
注意: 聊天 UI 和 API 仅在 RAGapp 配置完成后才可用。
为了确保 RAGapp 的安全,建议在云环境中保护 /admin 路径,因为 RAGapp 本身不包含任何认证层。
提供了一个 docker-compose.yml
文件,使得在自己的基础设施中轻松部署 RAGapp,并与 Ollama 和 Qdrant 一起使用。
可以通过 MODEL
环境变量指定要使用的模型,例如 llama3
:
MODEL=llama3 docker-compose up
如果未指定 MODEL
变量,将默认使用模型 phi3
,该模型比 llama3
略弱,但下载速度更快。
注意:
docker-compose.yml
文件中的setup
容器将把选定的模型下载到ollama
文件夹中,这个过程可能需要几分钟。
还可以通过 OLLAMA_BASE_URL
环境变量指定要使用的 Ollama 主机。如果未指定 OLLAMA_BASE_URL
变量,默认指向 Docker Compose 启动的 Ollama 实例 (http://ollama:11434
)。
如果使用的是本地 Ollama 实例,可以通过将 OLLAMA_BASE_URL
变量设置为 http://host.docker.internal:11434
来连接到 RAGapp:
MODEL=llama3 OLLAMA_BASE_URL=http://host.docker.internal:11434 docker-compose up
对于 macOS 用户,这是必要的,因为 Docker for Mac 不支持 GPU 加速。
可以轻松地在自己的云基础设施中部署 RAGapp。定制的 Kubernetes 部署描述符即将推出,敬请期待。
要进行开发,请按照以下步骤操作:
poetry install --no-root
make build-frontends
make dev
注意: 在开发过程中查看管理 UI,请访问 http://localhost:3000/admin。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-07-30
WAIC-Day3: 谈谈Agent场景及Agent OS基础设施
2025-07-30
微软进军 AI 浏览器,维持巨头的平庸
2025-07-30
Higress ,助力企业构建私有 AI 网关和 MCP 市场
2025-07-30
刚刚,OpenAI给大学生做了个新外挂!ChatGPT一键变老师,免费可用
2025-07-30
突发!字节跳动发布同声传译大模型Seed LiveInterpret2.0,是首个延迟与准确率接近人类水平的中英语音同传系统!
2025-07-30
OpenAI深夜发布ChatGPT Study:免费AI家教,彻底颠覆传统教育
2025-07-29
AI+合同审查落地分享(下-1- 合同智能审查)
2025-07-29
AI 应用开发,还需要意图识别吗?
2025-05-29
2025-05-23
2025-06-01
2025-05-07
2025-05-07
2025-05-07
2025-06-07
2025-06-21
2025-06-12
2025-05-20
2025-07-29
2025-07-29
2025-07-28
2025-07-27
2025-07-27
2025-07-25
2025-07-24
2025-07-24