微信扫码
添加专属顾问
我要投稿
1. 安装Ollama
Ollama官网:https://ollama.com/
在Linux下,终端执行以下命令
curl -fsSL https://ollama.com/install.sh | sh
2. 运行大模型
本地运行 llama3.1:8b 模型,在终端中运行,首次运行会自动拉取模型文件,8b模型大概4G-5G,需要稍微等待一下。
ollama run llama3.1:8b
1. 首先安装Docker,此篇就不详细说明了,不懂的同学可以参考我过去的文章,里面有详细的安装方法。
2. Docker拉取AnythingLLM镜像,打开终端运行
docker pull mintplexlabs/anythingllm
3. 下面的命令将在本地挂载存储并在 Docker 中运行 AnythingLLM,可以全部一次性复制到终端中运行。
export STORAGE_LOCATION=$HOME/anythingllm && \ mkdir -p $STORAGE_LOCATION && \ touch "$STORAGE_LOCATION/.env" && \ docker run -d -p 3001:3001 \ --cap-add SYS_ADMIN \ -v ${STORAGE_LOCATION}:/app/server/storage \ -v ${STORAGE_LOCATION}/.env:/app/server/.env \ -e STORAGE_DIR="/app/server/storage" \ mintplexlabs/anythingllm
4. 运行AnythingLLM
(1)先检查 Ollama是否正常运行,只有 Ollama正常运行后,AnythingLLM才能正确配置和运行大模型。打开浏览器,地址栏输入:http://localhost:11434
可以看到 “Ollama is running” 。
(2)运行AnythingLLM,打开浏览器,地址栏输入:http://localhost:3001,如安装无误,可以看到以下页面。
docker ps
1. 打开AnythingLLM页面:http://localhost:3001 ,点击“Get started” 开始配置
2. 选择大模型类型,这里选 “Ollama”
3. Data handling & privacy , 这里列出了RAG过程中所选择的模型。
4. 输入电邮和使用原因
5. 建立工作空间,输入工作空间的名称: anything_ollama
6. 建立工作空间完成
7. 本地大模型配置
这里注意Ollama Base URL ,如果Ollama部署在本地电脑,官网提供几种地址方式:
8. 正确配置后,回到工作空间问答页,就可以正常对话了
9. 为了提升大模型回答问题的质量和准确性,我们通过RAG的方式,加入本地知识库。点击工作空间旁的上传按钮,打开文档上传页。
(1)选择本地文档上传到AnythingLLM。我们用几篇stm32单片机开发的资料,做RAG处理。
(2)选择文档加入到工作空间。
10. 测试本地知识库的效果
而没有这些知识库,llama3.1:8b大模型回答的效果如下。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-06-14
从天价咨询到免费AI,夸克能改变志愿填报这门生意吗?
2025-06-14
开源破局,中国AI正在改写全球竞争格局!
2025-06-13
MinerU-利用专用LLM模型提取PDF内容的工具实测
2025-06-13
官宣|Milvus 2.6正式开源:内存减少 72%,速度比ES快4倍
2025-06-13
CoCo:全球首个“有记忆”的企业级AI Agent
2025-06-13
OpenAI 三连更:Team 上线 o3-pro、o3 额度翻倍、Projects 大升级!
2025-06-13
Manus免费版来了!两大核心更新功能实测
2025-06-13
[开源]RAGFlow: 基于深度文档理解的开源RAG引擎
2025-03-19
2025-03-19
2025-03-17
2025-04-01
2025-04-01
2025-04-13
2025-04-29
2025-03-19
2025-03-23
2025-03-22
2025-06-14
2025-06-10
2025-06-08
2025-05-28
2025-05-28
2025-05-26
2025-05-25
2025-05-23