首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >10 分钟带你跑通 Dify 的 Hello World

10 分钟带你跑通 Dify 的 Hello World

原创
作者头像
闫同学
发布2025-12-04 19:29:52
发布2025-12-04 19:29:52
2420
举报
文章被收录于专栏:AI相关AI相关

有时候,一句温柔的小提示,比一束花更能治愈一天的情绪。如果你刚开始接触 Dify,甚至还没想好要做什么应用,那么这篇文章能让你在 10 分钟内跑通一个真正能用的小功能,我愿称之为Dify的Hello World

这个功能的名字就叫做“早安心语”,顾名思义就是每天早上自动生成一条温柔的早安消息,发给你爱的人。

为什么选这个项目?

因为简单、有趣,还能立刻带来成就感。你跑通之后,说不定立刻就能提升一丢丢恋爱幸福指数。

这个Hello World能做什么?

我们的目标非常朴素:每次输入一个名字,比如“Baby”,Dify 自动生成一段温柔、不过分油腻的“今日早安提示”。

比如:“早安Baby,今天的风有点凉,记得穿外套哦。顺便提醒你:别把烦心事揣兜里,揣个热乎的糖更好。”

是不是一下子就能用在实战里了?

架构长这样

核心链路就是用户先输入一个名字,Dify 的工作流接收到这个输入后,将它传递给设定好的 Prompt 模板,由模板生成一段专属于这个名字的早安心语。随后,大模型根据 Prompt 输出一句温柔贴心的提示语,最终再交给后续步骤,比如展示、存储或发送。

详细步骤来啦

大概分为以下几步:

1)使用Docker运行Dify

第一步当然是把 Dify 跑起来。官方给的 Docker 启动方式已经非常成熟,你只需要在服务器或本地拉下仓库、执行 docker compose up -d 就能把整个 Dify 服务一键启动。启动后你会得到一个完整可用的环境,包括后台管理界面、工作流引擎以及所有模型调用能力。整个过程不需要安装繁琐的依赖,几分钟就能搞定,非常适合新手快速上手。

在运行Dify之前要求机器的CPU和内存最小条件为:

CPU >= 2 Core

RAM >= 4 GiB

满足上述条件外还需要有Docker和Docker Compose工具,然后在clone源码:

代码语言:shell
复制
git clone https://github.com/langgenius/dify

然后就可以直接在源码目录下执行Docker Compose命令:

代码语言:shell
复制
cd dify
cd docker
cp .env.example .env
docker compose up -d

然后访问以下地址安装Dify:

代码语言:shell
复制
http://localhost/install

2)打开Dify,创建空白应用

打开Dify的地址 http://localhost

创建工作流,填写一些基本信息

3)编辑工作流开始节点

进入工作流后,画布中央会有一个开始节点。点开右侧配置面板,你可以为这个开始节点增加输入参数,例如 name(文本类型),用于接收用户输入的名字。

这个步骤的核心作用就是告诉 Dify:我的流程需要什么输入数据,它们来自哪里。之后这些输入会在 Prompt 里使用,也会传递到每一个后续节点。

输入比较好理解,就是输入相关的参数,类似于HTML里面的表单组件,而触发器相较就稍微复杂一点,相关解释可以参考:

https://docs.dify.ai/zh/use-dify/nodes/trigger/overview

4)增加LLM节点

接下来,从左侧组件栏把一个「LLM」节点拖到画布上,并连接到开始节点。

打开配置面板,你可以选择你想用的模型(比如 GPT、Qwen、Claude 等),然后编写 Prompt 模板,让模型根据输入生成一段温柔的早安文案。Prompt 模板中可以使用变量占位符,比如 {{name}},让输出变得更贴心、更个性化。这个节点就是整条流程的大脑,负责根据你的规则生成内容。

如果是第一次使用LLM,那么还需要安装相关的插件,并进行配置,这个就像我们手机安装应用并使用手机号登录一样简单。

比如在这里我选择的是DeepSeek,那么就需要到DeepSeek的开放平台去申请一个API Key,并配置在我这个插件中,配置完成后可以测试一下。

然后就是选择模型等操作。

配置完成后LLM节点就可以正式使用了。

5)增加HTTP请求节点

如果你还想让输出更“聪明”,比如结合天气、日期或外部数据,可以在 LLM 后面再拖入一个「HTTP Request」节点。这个节点可以向任意 API 发起请求,比如天气 API,用来补充更多个性化信息。你可以把从外部接口拿到的字段继续传入 LLM 或给后续节点使用。这个步骤类似给流程加一个“外挂能力”,让它不只会写文案,还能查资料、连互联网、做真实世界的数据交互。

我们首先新建一个HTTP Server,用于接收Dify发送过来的请求。

代码语言:go
复制
func main() {
    http.HandleFunc("/send", func(w http.ResponseWriter, r *http.Request) {
       param := r.URL.Query().Get("str")
        fmt.Fprintf(w, "Received GET request with parameter: %s", param)
    })

    // 启动服务器
    port := ":8080"
    log.Printf("服务器运行在 http://localhost%s", port)
    log.Fatal(http.ListenAndServe(port, nil))
}

然后在Dify流程中创建HTTP节点,发送HTTP Request。

后面我们就可以测试这个流程啦

测试效果

我们点击测试运行,然后开始节点会让我们输入name参数的值,我们可以自定义数据进行输入,然后点击开始运行。

后面这个工作流就会自动的拿着我们填写的参数去调用LLM,然后将返回值再进行HTTP接口的调用:

拓展一下

到这里,一个“输入名字 → 输出温柔早安提示” 的 Dify 工作流就算跑通了。虽然看起来只是一个很简单的小程序,但它已经完整覆盖了一个 AI 应用从 输入、处理、生成到扩展能力 的完整链路。更重要的是,你会发现——AI 应用并不是一个冷冰冰、需要很强代码功底的东西,只要你能把需求拆成几个小动作,Dify 就能帮你把每一步串起来。

如果你继续往下挖,其实还能玩出更多花样:

  • 让 LLM 输出更稳定?可以加入 参数校验条件分支
  • 想让提示更贴近生活?加一个 天气 API日期节点
  • 想自动每天给喜欢的人发?接上 Webhook消息推送渠道
  • 想做成独立产品?你可以再加上 前端小界面API 调用入口

当你把这些能力组合在一起的时候,你就不只是跑通了一个 Hello World,而是真正掌握了构建 AI 自动化应用的思维方式。

未来你可能会开发一个自动写日报的小助手、一个能分析股票情绪的小工具,甚至一个个性化的生活 AI 伙伴。而这一切,都是从这个小小的“早安提示”开始的。

所以我们已经迈出了做 AI 应用的第一步。接下来,只需要继续动手,继续尝试,把更多想法交给 Dify 去实现,就行了。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 这个Hello World能做什么?
  • 架构长这样
  • 详细步骤来啦
  • 测试效果
  • 拓展一下
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档