Dify介绍
Dify 是一个开源的 LLM 应用开发平台。其直观的界面结合了 AI 工作流、RAG 管道、Agent、模型管理、可观测性功能等,让您可以快速从原型到生产。
核心功能
1. 工作流: 在画布上构建和测试功能强大的 AI 工作流程,利用以下所有功能以及更多功能。
2. 全面的模型支持: 与数百种专有/开源 LLMs 以及数十种推理提供商和自托管解决方案无缝集成,涵盖 GPT、Mistral、Llama3 以及任何与 OpenAI API 兼容的模型。
3. Prompt IDE: 用于制作提示、比较模型性能以及向基于聊天的应用程序添加其他功能(如文本转语音)的直观界面。
4. RAG Pipeline: 广泛的 RAG 功能,涵盖从文档摄入到检索的所有内容,支持从 PDF、PPT 和其他常见文档格式中提取文本的开箱即用的支持。
5. Agent 智能体: 您可以基于 LLM 函数调用或 ReAct 定义 Agent,并为 Agent 添加预构建或自定义工具。Dify 为 AI Agent 提供了 50 多种内置工具,如谷歌搜索、DALL·E、Stable Diffusion 和 WolframAlpha 等。
6. LLMOps: 随时间监视和分析应用程序日志和性能。您可以根据生产数据和标注持续改进提示、数据集和模型。
7. 后端即服务: 所有 Dify 的功能都带有相应的 API,因此您可以轻松地将 Dify 集成到自己的业务逻辑中。
内容来自:https://github.com/langgenius/dify/blob/main/README_CN.md
功能比较
Dify部署
系统要求
在安装 Dify 之前,请确保您的机器满足以下最低系统要求:
CPU >= 2 Core
RAM >= 4 GiB
Docker部署
Dify提供了云服务和自托管部署。自托管有多种方式,本文使用Docker方式部署。
下载源码
git clone https://github.com/langgenius/dify.git
如果网络不支持git方式,就Download ZIP:
然后到源码目录,执行:
cd dify-main/docker
cp .env.example .env
docker compose up -d
当docker compose up -d执行完毕后,访问http://localhost/install:
注册用户
访问登陆界面,设置管理员账户:
填写必要信息后,点击“设置”:
点击“登陆”:
模型配置
点击“账户”--->“设置”:
点击“模型供应商”:
选一个大模型平台,点击“安装”:
再次确认并安装:
插件安装完毕后,插件会出现在待配置列表中:
点击插件的“设置”:
填写大模型平台的API Key:
api获取可以参考《硅基流动大模型API》。
将获取的key填入,点击“保存”:
保存后:
到此,大模型配置完成。
知识库
大模型配置完毕后,按“ESC”或点击如图按钮:
回到工作界面:
点击“知识库”--->“创建知识库”:
选择数据源:
上传一个文档,点击“下一步”:
文本分段与清洗参数设置,点击“保存并处理”:
没有特殊要求,保持默认即可。
等待处理完成:
处理完毕后,点击“前往文档”:
此时,文档状态已为“可用”:
点击“召回测试”,输入问题,返回内容:
到此,Dify的知识库创建就完成了。
关于知识库如何使用,请关注后续更新~~~