一个开源LLM应用程序开发平台。Dify 的直观界面结合了 AI 工作流、RAG 管道、代理功能、模型管理、可观察性功能等,让您快速从原型进入生产。
Dify 是一个开源的 LLM 应用开发平台。它提供直观的界面,结合了 AI 工作流程、RAG 管道、代理功能、模型管理和可观察性功能,帮助用户快速从原型开发到生产应用。其主要功能包括:
- 工作流:在可视化画布上构建和测试强大的 AI 工作流。
- 全面的模型支持:集成多种专有和开源 LLM。
- 提示 IDE:设计提示并比较模型性能。
- RAG 管道:支持文档摄取和检索。
- 代理功能:定义基于 LLM 的代理并添加工具。
- LLMOps:监控和分析应用日志和性能。
- 后端即服务:提供 API 以便轻松集成。
功能比较
Dify 与其他平台的功能对比:
-
编程方式:
- Dify.AI:API + 应用导向
- LangChain:Python 代码
- Flowise:应用导向
- OpenAI Assistants API:API 导向
-
支持的 LLM:Dify、LangChain 和 Flowise 都支持多种 LLM,而 OpenAI Assistants API 仅支持 OpenAI 的模型。
-
RAG 引擎:所有平台均支持。
-
代理功能:Dify、LangChain 和 OpenAI Assistants API 支持。
-
工作流:Dify 和 Flowise 支持。
-
可观察性:Dify 和 LangChain 支持。
-
企业功能(SSO/访问控制):仅 Dify 支持。
-
本地部署:Dify、LangChain 和 Flowise 支持。
使用 Dify
-
云端:我们提供 Dify Cloud 服务,无需设置即可试用,包含自部署版本的所有功能,并在沙箱计划中提供 200 次免费的 GPT-4 调用。
-
自托管 Dify 社区版:使用快速入门指南在您的环境中快速运行 Dify。参考我们的文档以获取更深入的说明。
-
企业/组织版 Dify:提供额外的企业功能。安排会议或发送电子邮件以讨论企业需求。
-
AWS 上的 Dify Premium:适用于初创企业和小型企业,在 AWS Marketplace 上以一键方式部署到您的 AWS VPC,提供经济实惠的 AMI 选项,可创建带有自定义标志和品牌的应用程序。
快速开始
在安装 Dify 之前,请确保您的机器符合以下最低系统要求:
- CPU >= 2 核
- RAM >= 4GB
最简单的启动 Dify 服务器的方法是运行我们的 docker-compose.yml 文件。在运行安装命令之前,确保您的机器上已安装 Docker 和 Docker Compose:
cd docker
cp .env.example .env
docker compose up -d
运行后,可以在浏览器中访问 http://localhost/install 并开始初始化过程。
如果需要自定义配置,请参考 .env.example 文件中的注释并更新 .env 文件中的对应值。对 docker-compose.yaml 文件进行必要调整后,重新运行 docker-compose up -d
。完整的环境变量列表可以在这里找到。
对于高可用设置,社区提供了 Helm Charts 和 YAML 文件,以便在 Kubernetes 上部署 Dify:
使用 Terraform 在 Azure 全球部署 Dify: