支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


Dify实现AI智能体工作流实战手册

发布日期:2025-06-03 15:39:26 浏览次数: 1767 作者:AI技术专家
推荐语

Dify:AI智能体工作流编排的实战指南,助你轻松整合大模型应用与开发工具。

核心内容:
1. Dify软件介绍:集成多种AI模型与工具
2. OLlama推理模型安装与环境配置
3. Docker与Dify的安装及配置步骤

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

dify是一款智能体工作流编排低代码软件,带一点编程性质,整合了市面上的大模型应用,以及开发工具,比如:OpenAI、Azure、HuggingFace、DeepSeek、Ollama、腾讯混元、文心一言、ZhipuAI等模型。

还有LM Studio、百川智能、AI Studio、GitGub、网页抓取等工具,集成了系统推理模型、Embedding模型、Rerank模型、语音转文本模型和文本转语音模型等功能。

对比扣子工作流编排,扣子适合初学者能零代码平台一键集成至微信公众号、小程序等平台,而Dify需要手动部署、一定的技术背景才能实现。

1

推理模型OLLAMA安装

我们需要在Dify中指定推理模型,推荐使用OLLAMA,在个人设备部署。

Ollama 是一个用于本地运行大语言模型(LLMs)的开源工具,提供简单的界面和优化的推理引擎,使用户能够在个人设备上高效地加载、管理和运行 AI 模型,而无需依赖云端。

Ollama的下载地址是:ollama.com/

我们选择Windows版本,直接安装。

安装完OLLAMA之后需要设置环境变量,保证OLLAMA可以通过ip访问:

OLLAMA_HOST环境变量:

OLLAMA_ORIGINS环境变量:

然后我们需要安装DeepSeek-R1推理模型:

打开电脑CMD输入:

ollama run deepseek-r1:1.5b

我们还需要安装向量数据库模型nomic-embed-text

打开电脑CMD输入:

ollama pull nomic-embed-text

这样我们就能利用知识库推理回答问题了。

2

安装Docker

Docker 是一个开源的容器化平台,用于开发、交付和运行应用,使应用及其依赖能够以轻量级、可移植的方式打包并运行在任何环境中。

官方地址:https://www.docker.com/

我们选择Windows操作系统下载,下载后一路默认安装。安装完成后需要登录。

3

安装Dify

dify的项目github地址:https://github.com/langgenius/dify

下载之后解压,进入docker目录:

把 .env.example 文件 重命名为 .env

修改.env文件配置,设置OLLAMA地址,结尾增加:


# 启用自定义模型



CUSTOM_MODEL_ENABLED=true



# 指定Ollama的API地址



OLLAMA_API_BASE_URL=http://127.0.0.1:11434




在当前目录打开终端,执行命令:docker compose up -d

开始安装Dify。

检查容器是否正常运行:docker compose ps

在桌面docker中看到多了一个容器,说明dify环境已就绪。

接下来进入配置dify阶段:

打开浏览器,访问 http://localhost:80,设置管理员账号并登录 Dify 主界面。

我这次都是本机搭建的,所以IP地址用Localhost就行。

填写邮箱名、用户名、密码。

登录之后,地址:

http://localhost/apps

这样就安装完成Dify了,接下来进入配置阶段。


4

配置Dify

在界面右上角点击设置,添加Deepseek R1模型

进入设置界面,选择模型供应商:

在安装模型供应商中选择OLLAMA模型安装:

出现在模型列表中:

我们添加模型:

这样就添加了一个deepseek-r1:1.5b的推理模型,打开系统模型设置:

选择DeepSeek-R1 1.5b:

我们回到OLLAMA添加模型界面,添加一个Embedding模型:

再次点击系统模型设置,在Embedding模型中选择nomic-embed-text模型:

接下来我们来安装rerank模型。

首先在模型供应商列表中选择通义千问模型安装:

接着去阿里云百炼平台注册一个APIKEY:

https://bailian.console.aliyun.com/?tab=model#/api-key

将APIKEY复制出来,写在记事本里,等会儿要用。

回到模型产品列表,通义千问新增一个模型,类别为rerank,将刚才的APIKEY粘贴进来:

紧接着通义千问,设置一下APIKEY:

粘贴刚才的APIKEY进来:

我们可以在模型系统设置,增加rerank模型了:

接下来,系统模型设置利用通义千问开启语音转文本模型:

系统模型设置利用通义千问开启文本转语音模型:

完成了以上步骤后,就可以开始在Dify中构建智能体工作流了。


5

 Dify构建智能体工作流

退出回到Dify首页:

http://localhost/apps

创建知识库:

可以导入已有文本:

也可以添加文件:

选择保存并处理:

处理知识文档:

我们可以创建空白应用,选择工作流:

进入工作流编排界面:

添加节点:

比如加一个知识检索,选择刚刚创建的知识库:

设置下一个节点为LLM推理模型:

还可以添加并行节点:

LLM设置一个指令:

最后结束流程:

回到开始节点,点击运行:

在开始节点增加文本字段:

知识检索改为sys_text字段查询:

还可以将工作流发布为MCP工具:

我们来运行工作流:

在LLM后面还可以添加工具,文本转语音:

设置模型文本转语音模型,并设置音色:

运行工作流,完整流程走完:

最后一定要加结束流程:

我们用Dify再来构建一个聊天机器人:

http://localhost/apps

建立多轮对话工作流:

默认构建了一套流程,可以增加流程:

我们点击预览:

需要管理下功能列表:文本转语音或者语音转文本

设置开场白:

可以设置文字音色:

功能开启后,就可以用了:

文字输入:

如果想要语音输入,需要开启语音功能:

就可以语音输入了:

开启语音自动播放:

开始调用工作流,并进行语音播放了:

完整过程及播放:

还可以继续提示你好呀:


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询