微信扫码
添加专属顾问
我要投稿
Dify:AI智能体工作流编排的实战指南,助你轻松整合大模型应用与开发工具。 核心内容: 1. Dify软件介绍:集成多种AI模型与工具 2. OLlama推理模型安装与环境配置 3. Docker与Dify的安装及配置步骤
dify是一款智能体工作流编排低代码软件,带一点编程性质,整合了市面上的大模型应用,以及开发工具,比如:OpenAI、Azure、HuggingFace、DeepSeek、Ollama、腾讯混元、文心一言、ZhipuAI等模型。
还有LM Studio、百川智能、AI Studio、GitGub、网页抓取等工具,集成了系统推理模型、Embedding模型、Rerank模型、语音转文本模型和文本转语音模型等功能。
对比扣子工作流编排,扣子适合初学者能零代码平台一键集成至微信公众号、小程序等平台,而Dify需要手动部署、一定的技术背景才能实现。
推理模型OLLAMA安装
我们需要在Dify中指定推理模型,推荐使用OLLAMA,在个人设备部署。
Ollama 是一个用于本地运行大语言模型(LLMs)的开源工具,提供简单的界面和优化的推理引擎,使用户能够在个人设备上高效地加载、管理和运行 AI 模型,而无需依赖云端。
Ollama的下载地址是:ollama.com/
我们选择Windows版本,直接安装。
安装完OLLAMA之后需要设置环境变量,保证OLLAMA可以通过ip访问:
OLLAMA_HOST环境变量:
OLLAMA_ORIGINS环境变量:
然后我们需要安装DeepSeek-R1推理模型:
打开电脑CMD输入:
ollama run deepseek-r1:1.5b
我们还需要安装向量数据库模型nomic-embed-text
打开电脑CMD输入:
ollama pull nomic-embed-text
这样我们就能利用知识库推理回答问题了。
安装Docker
Docker 是一个开源的容器化平台,用于开发、交付和运行应用,使应用及其依赖能够以轻量级、可移植的方式打包并运行在任何环境中。
官方地址:https://www.docker.com/
我们选择Windows操作系统下载,下载后一路默认安装。安装完成后需要登录。
安装Dify
dify的项目github地址:https://github.com/langgenius/dify
下载之后解压,进入docker目录:
把 .env.example 文件 重命名为 .env
修改.env文件配置,设置OLLAMA地址,结尾增加:
# 启用自定义模型
CUSTOM_MODEL_ENABLED=true
# 指定Ollama的API地址
OLLAMA_API_BASE_URL=http://127.0.0.1:11434
在当前目录打开终端,执行命令:docker compose up -d
开始安装Dify。
检查容器是否正常运行:docker compose ps
在桌面docker中看到多了一个容器,说明dify环境已就绪。
接下来进入配置dify阶段:
打开浏览器,访问 http://localhost:80,设置管理员账号并登录 Dify 主界面。
我这次都是本机搭建的,所以IP地址用Localhost就行。
填写邮箱名、用户名、密码。
登录之后,地址:
http://localhost/apps
这样就安装完成Dify了,接下来进入配置阶段。
配置Dify
在界面右上角点击设置,添加Deepseek R1模型
进入设置界面,选择模型供应商:
在安装模型供应商中选择OLLAMA模型安装:
出现在模型列表中:
我们添加模型:
这样就添加了一个deepseek-r1:1.5b的推理模型,打开系统模型设置:
选择DeepSeek-R1 1.5b:
我们回到OLLAMA添加模型界面,添加一个Embedding模型:
再次点击系统模型设置,在Embedding模型中选择nomic-embed-text模型:
接下来我们来安装rerank模型。
首先在模型供应商列表中选择通义千问模型安装:
接着去阿里云百炼平台注册一个APIKEY:
https://bailian.console.aliyun.com/?tab=model#/api-key
将APIKEY复制出来,写在记事本里,等会儿要用。
回到模型产品列表,通义千问新增一个模型,类别为rerank,将刚才的APIKEY粘贴进来:
紧接着通义千问,设置一下APIKEY:
粘贴刚才的APIKEY进来:
我们可以在模型系统设置,增加rerank模型了:
接下来,系统模型设置利用通义千问开启语音转文本模型:
系统模型设置利用通义千问开启文本转语音模型:
完成了以上步骤后,就可以开始在Dify中构建智能体工作流了。
Dify构建智能体工作流
退出回到Dify首页:
http://localhost/apps
创建知识库:
可以导入已有文本:
也可以添加文件:
选择保存并处理:
处理知识文档:
我们可以创建空白应用,选择工作流:
进入工作流编排界面:
添加节点:
比如加一个知识检索,选择刚刚创建的知识库:
设置下一个节点为LLM推理模型:
还可以添加并行节点:
LLM设置一个指令:
最后结束流程:
回到开始节点,点击运行:
在开始节点增加文本字段:
知识检索改为sys_text字段查询:
还可以将工作流发布为MCP工具:
我们来运行工作流:
在LLM后面还可以添加工具,文本转语音:
设置模型文本转语音模型,并设置音色:
运行工作流,完整流程走完:
最后一定要加结束流程:
我们用Dify再来构建一个聊天机器人:
http://localhost/apps
建立多轮对话工作流:
默认构建了一套流程,可以增加流程:
我们点击预览:
需要管理下功能列表:文本转语音或者语音转文本
设置开场白:
可以设置文字音色:
功能开启后,就可以用了:
文字输入:
如果想要语音输入,需要开启语音功能:
就可以语音输入了:
开启语音自动播放:
开始调用工作流,并进行语音播放了:
完整过程及播放:
还可以继续提示你好呀:
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-12-24
2024-04-25
2024-07-16
2024-07-20
2024-04-24
2024-06-21
2024-11-15
2024-05-08
2024-08-06
2025-03-09
2025-05-29
2025-05-28
2025-05-22
2025-04-27
2025-04-15
2025-03-20
2024-12-19
2024-09-13