微信扫码
添加专属顾问
我要投稿
Ollama是一个本地推理框架客户端,允许一键部署诸如Llama 2、Mistral、Llava等大型语言模型(LLMs)。Dify支持集成通过Ollama部署的大型语言模型和文本嵌入能力。
快速集成
下载并启动Ollama
对于其他模型,访问Ollama模型以获取更多详情。
ollama run llava
在Dify中集成Ollama
点击“保存”以在应用程序中使用模型,之后确认没有错误。
嵌入模型的集成方法与LLM相似,只需将模型类型更改为文本嵌入。
使用Ollama模型
在需要配置的App的Prompt Eng.页面,选择Ollama提供商下的llava模型,并在配置模型参数后使用它。
FAQ
如果您使用docker部署Dify和Ollama,可能会遇到以下错误:
httpconnectionpool(host=127.0.0.1, port=11434): max retries exceeded with url:/cpi/chat (Caused by NewConnectionError('<urllib3.connection.HTTPConnection object at 0x7f8562812c20>: fail to establish a new connection:[Errno 111] Connection refused'))
这个错误是因为Ollama服务无法从docker容器中访问。localhost通常指的是容器本身,而不是宿主机或其他容器。要解决此问题,您需要将Ollama服务暴露给网络。
设置Mac上的环境变量
launchctl setenv OLLAMA_HOST "0.0.0.0"
重启Ollama应用程序。设置Linux上的环境变量
systemctl daemon-reload
systemctl restart ollama
设置Windows上的环境变量
如何在我的网络上暴露Ollama?Ollama默认绑定127.0.0.1端口11434。使用OLLAMA_HOST环境变量更改绑定地址。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-09-17
全网首发Dify Nano Banana工作流
2025-09-16
Dify 2.0 重磅升级!知识管道登场,RAG 开发效率直接翻倍
2025-09-07
Dify发布页面用户鉴权方案讨论
2025-09-06
全网首发!Dify 2.0.0 图文混排上线,每个新功能都是爆款!附实战教程(建议收藏)
2025-09-06
Dify 参数提取器用法剖析
2025-09-06
Dify 夏日更新速递|功能概览
2025-09-06
夏日终章,Dify 放出“解暑大招”——v1.7→v1.8 升级包,专治各种“流程便秘”!
2025-09-06
Dify v2.0.0-beta.1悄悄的来啦!看看有哪些大更新?
2025-06-25
2025-06-30
2025-06-24
2025-06-29
2025-07-02
2025-06-26
2025-06-25
2025-07-11
2025-08-19
2025-09-03
2025-09-06
2025-09-05
2025-08-29
2025-08-18
2025-08-02
2025-07-30
2025-06-26
2025-06-17