微信扫码
添加专属顾问
我要投稿
LangChat是Java生态下企业级AIGC项目解决方案,在RBAC权限体系的基础上,集成AIGC大模型功能,帮助企业快速定制知识库、企业机器人。
还不会部署本地AI大模型?使用LangChat带你快速部署并接入本地Ollama AI大模型。
Ollama是一种本地模型部署方案,Ollama简化了模型的部署方式,通过官方一行命令即可在本地下载并启动一个模型。重点:有很多不需要GPU的模型
Ollama的官网:https://ollama.com/library
例如我们想要在本地部署最新的Llama3.1模型:
首先需要安装Ollama官方客户端,然后直接执行命令:
ollama run llama3.1
默认会下载最小的模型,越大的模型对电脑配置要求越高,最小的模型一般不需要GPU也可运行(我使用的16/512 Mac book pro测试)。
下载完成后会直接运行模型,如下,非常简单,我们可以直接通过命令行对话模型:
启动完成后,Ollama默认会暴露一个http端口:http://127.0.0.1:11434 。也就是我们最终会使用http://127.0.0.1:11434/api/chat 接口和Ollama模型聊天。
首先我们需要在LangChat模型管理页面配置Ollama模型信息,这里的BaseUrl必须填写上述地址,然后【模型】填写你运行的模型名称即可:
测试效果如下,在LangChat的聊天助手页面的右上角选择刚刚配置的Ollama模型即可快速使用。(注意:最终的效果完全取决于模型的能力,和模型的参数大小有关,想要更好的效果、更快的响应速度就必须配置更高参数的列表,也就必须使用显存更高的机器)
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-12-08
让AI智能体拥有像人类的持久记忆:基于LangGraph的长短期记忆管理实践指南
2025-12-04
Agentic RAG这样用LangChain解决复杂问题
2025-12-01
Deep Agent 进化论:基于文件系统的 Context Engineering 深度解析
2025-11-27
langgraph 1.0.4 最新发布:功能优化与修复详解
2025-11-25
LangChain 最新agent框架deepagents测评:长任务友好,高可控
2025-11-25
被 LangChain 全家桶搞晕了?LangGraph、LangSmith、LangFlow 一文读懂
2025-11-21
如何用 LangGraph 构建高效的 Agentic 系统
2025-11-19
LangChain v1.0 模型选型:静态还是动态?一文看懂 Agent 的正确打开方式
2025-09-21
2025-11-03
2025-10-23
2025-10-19
2025-10-31
2025-11-06
2025-11-05
2025-09-19
2025-10-23
2025-11-01
2025-11-03
2025-10-29
2025-07-14
2025-07-13
2025-07-05
2025-06-26
2025-06-13
2025-05-21