dify介绍
Dify 允许你将不同的智能体组合在一起,构建出更加强大和复杂的 AI 应用。你可以让一个智能体负责理解用户的输入,根据输入的特点进行转发给另一组用于回答的智能体中最适合处理该问题的一个,用于负责生成回答,再由一个专门的智能体对回答进行优化和修正。通过这种方式,你可以发挥每个智能体的长处,弥补它们的不足,最终得到一个性能更好、更加稳定的 AI 系统。
此外,Dify 还提供了一个直观的图形化界面,让你可以方便地管理和编排这些智能体。你不需要编写复杂的代码,只需要通过拖拽和连线,就可以定义智能体之间的交互和数据流动。这大大降低了开发 AI 应用的门槛,让更多人可以参与到这个领域中来。
开源地址:https://github.com/langgenius/dify
dify部署
1、安装docker
apt-get install docker-ce
配置docker-compose
2、克隆dify
输入命令:git clone https://github.com/langgenius/dify
3、启动Dify
(1)先找到docker-compose.yaml文件所在的文件夹(通常在 dify 目录下的 docker 文件夹中)
进入docker-compose.yaml所在文件夹的终端中,运行命令:docker compose up -d
这个命令会启动在 docker-compose.yml 中定义的所有服务。
(3)等待Docker下载并启动所有必要的组件
docker-compose ps
NAME IMAGE COMMAND SERVICE CREATED STATUS PORTS
docker-api-1 langgenius/dify-api:0.15.3 "/bin/bash /entrypoi…" api 20 hours ago Up 18 hours 5001/tcp
docker-db-1 postgres:15-alpine "docker-entrypoint.s…" db 20 hours ago Up 18 hours (healthy) 5432/tcp
docker-nginx-1 nginx:latest "sh -c 'cp /docker-e…" nginx 20 hours ago Up 18 hours 0.0.0.0:443->443/tcp, :::443->443/tcp, 80/tcp, 0.0.0.0:8080->8080/tcp, :::8080->8080/tcp
docker-redis-1 redis:6-alpine "docker-entrypoint.s…" redis 20 hours ago Up 18 hours (healthy) 6379/tcp
docker-sandbox-1 langgenius/dify-sandbox:0.2.10 "/main" sandbox 20 hours ago Up 18 hours (healthy)
docker-ssrf_proxy-1 ubuntu/squid:latest "sh -c 'cp /docker-e…" ssrf_proxy 20 hours ago Up 18 hours 3128/tcp
docker-weaviate-1 semitechnologies/weaviate:1.19.0 "/bin/weaviate --hos…" weaviate 20 hours ago Up 18 hours
docker-web-1 langgenius/dify-web:0.15.3 "/bin/sh ./entrypoin…" web 20 hours ago Up 18 hours 3000/tcp
docker-worker-1 langgenius/dify-api:0.15.3 "/bin/bash /entrypoi…" worker 20 hours ago Up 18 hours 5001/tcp
4:配置Dify
(1)打开浏览器,访问 http://10.2.2.227:8080/,你会看到Dify的设置页面
(2)创建管理员账户:设置用户名、邮箱和密码(请务必牢记这些信息)
(3)完成之后,正式进入Dify的世界。
5:配置本地模型
1、配置docker下的env文件
# 启用自定义模型
CUSTOM_MODEL_ENABLED=true
# 指定 Ollama 的 API 地址(根据部署环境调整 IP)
OLLAMA_API_BASE_URL=host.docker.internal:11434
2、页面配置
选择模型供应商ollama
填写对应的模型名称和地址
6:创建知识库
1、点击创建知识库,导入已有文本,下一步选择embedding模型
2、使用ollama 部署 baai/bge-m3即可满足需求,保存并处理,设置知识库名字
7:创建一个应用
1、点击创建空白应用,选择聊天助手,输入名字,点击创建,完成应用创建
2、输入对应的提示语,并且选择模型,右侧可以实时预览,如果效果不理想,就可以对应的调整左侧输入。
3、上下文设置添加知识库,选择刚才创建的知识库即可,点击发布即可。
8、访问测试
能正确识别知识库并综合信息。