Dify 是一个开源的 LLM 应用开发平台。它的直观界面结合了 AI 工作流、RAG 流水线、代理功能、模型管理、可观察性特征等,使您能够快速从原型开发到生产。
功能
- 工作流:在可视化画布上构建和测试强大的 AI 工作流,利用以下所有功能及更多功能。
- 全面的模型支持:与数十家推理提供商和自托管解决方案的数百个专有/开源 LLM 无缝集成,涵盖 GPT、Mistral、Llama3 和任何兼容 OpenAI API 的模型。支持的模型提供商的完整列表可以在 模型提供商部分 中找到。
- 提示 IDE:用于设计提示、比较模型性能并为基于聊天的应用程序添加其他功能(如文本转语音)的直观界面。
- RAG 流水线:广泛的 RAG 功能,涵盖从文档摄取到检索的所有内容,开箱即用支持从 PDF、PPT 和其他常见文档格式中提取文本。
- 代理功能:您可以基于 LLM 函数调用或 ReAct 定义代理,并为代理添加预构建或自定义工具。Dify 为 AI 代理提供了 50 多种内置工具,例如 Google Search、DELL·E、Stable Diffusion 和 WolframAlpha。
- LLMOps:监控和分析应用程序日志和性能随时间的变化。您可以根据生产数据和注释不断改进提示、数据集和模型。
- 后端即服务:Dify 的所有产品都附带相应的 API,因此您可以轻松地将 Dify 集成到您自己的业务逻辑中。
部署
要部署 Dify,请点击右上角的"部署"按钮,并填写所需的域名。部署后,您可以在 https://<your-domain>.zeabur.app 访问您的 Dify 应用。
应用结构
- Redis、PostgreSQL、MINIO 和 Weaviate 用于数据存储和缓存。
api、worker、worker-beat、web 和 sandbox 是 Dify 的微服务。
plugin-daemon 管理第三方插件的执行和生命周期。
nginx 是 Dify 的网关。它将微服务集成到一个主机上。换句话说,它是您的 Dify 应用的入口点。
配置
请参考 https://docs.dify.ai/getting-started/install-self-hosted/environments 了解可配置的环境变量,这些变量主要在 api 服务中设置。
上传文件大小限制
默认的上传文件大小限制为 100 MB。你可以通过修改 nginx 服务中的 /etc/nginx/nginx.conf 配置文件里的 client_max_body_size 指令来调整这个限制。数值应为带有单位的字符串(例如:100M 表示 100 MB)。
另外,你可能需要在 api 服务的环境中设置 UPLOAD_FILE_SIZE_LIMIT 变量,使其与上述配置保持一致。请确保这个数值与 /etc/nginx/nginx.conf 配置中的 client_max_body_size 指令相同(例如:100M 表示 100 MB)。
更新日志
v1.13.0
新增
- Human-in-the-Loop(HITL)工作流节点,支持 AI 与人类协作
- 工作流流式处理现在在 Celery worker 中运行,提升可靠性
修正
v1.12.1-2
新增
修正
- 文件上传大小从 15MB 提高到 100MB
- 修正 plugin endpoint 页面 asset 加载 404
- 修正 plugin endpoint URL 显示为 localhost
- 修正从模板创建应用时会失败的问题
优化