有时候,一句温柔的小提示,比一束花更能治愈一天的情绪。如果你刚开始接触 Dify,甚至还没想好要做什么应用,那么这篇文章能让你在 10 分钟内跑通一个真正能用的小功能,我愿称之为Dify的Hello World。
这个功能的名字就叫做“早安心语”,顾名思义就是每天早上自动生成一条温柔的早安消息,发给你爱的人。
为什么选这个项目?
因为简单、有趣,还能立刻带来成就感。你跑通之后,说不定立刻就能提升一丢丢恋爱幸福指数。
我们的目标非常朴素:每次输入一个名字,比如“Baby”,Dify 自动生成一段温柔、不过分油腻的“今日早安提示”。
比如:“早安Baby,今天的风有点凉,记得穿外套哦。顺便提醒你:别把烦心事揣兜里,揣个热乎的糖更好。”
是不是一下子就能用在实战里了?
核心链路就是用户先输入一个名字,Dify 的工作流接收到这个输入后,将它传递给设定好的 Prompt 模板,由模板生成一段专属于这个名字的早安心语。随后,大模型根据 Prompt 输出一句温柔贴心的提示语,最终再交给后续步骤,比如展示、存储或发送。

大概分为以下几步:
1)使用Docker运行Dify
第一步当然是把 Dify 跑起来。官方给的 Docker 启动方式已经非常成熟,你只需要在服务器或本地拉下仓库、执行 docker compose up -d 就能把整个 Dify 服务一键启动。启动后你会得到一个完整可用的环境,包括后台管理界面、工作流引擎以及所有模型调用能力。整个过程不需要安装繁琐的依赖,几分钟就能搞定,非常适合新手快速上手。
在运行Dify之前要求机器的CPU和内存最小条件为:
CPU >= 2 Core
RAM >= 4 GiB
满足上述条件外还需要有Docker和Docker Compose工具,然后在clone源码:
git clone https://github.com/langgenius/dify然后就可以直接在源码目录下执行Docker Compose命令:
cd dify
cd docker
cp .env.example .env
docker compose up -d然后访问以下地址安装Dify:
http://localhost/install2)打开Dify,创建空白应用
打开Dify的地址 http://localhost

创建工作流,填写一些基本信息

3)编辑工作流开始节点
进入工作流后,画布中央会有一个开始节点。点开右侧配置面板,你可以为这个开始节点增加输入参数,例如 name(文本类型),用于接收用户输入的名字。
这个步骤的核心作用就是告诉 Dify:我的流程需要什么输入数据,它们来自哪里。之后这些输入会在 Prompt 里使用,也会传递到每一个后续节点。

输入比较好理解,就是输入相关的参数,类似于HTML里面的表单组件,而触发器相较就稍微复杂一点,相关解释可以参考:
https://docs.dify.ai/zh/use-dify/nodes/trigger/overview

4)增加LLM节点
接下来,从左侧组件栏把一个「LLM」节点拖到画布上,并连接到开始节点。

打开配置面板,你可以选择你想用的模型(比如 GPT、Qwen、Claude 等),然后编写 Prompt 模板,让模型根据输入生成一段温柔的早安文案。Prompt 模板中可以使用变量占位符,比如 {{name}},让输出变得更贴心、更个性化。这个节点就是整条流程的大脑,负责根据你的规则生成内容。

如果是第一次使用LLM,那么还需要安装相关的插件,并进行配置,这个就像我们手机安装应用并使用手机号登录一样简单。

比如在这里我选择的是DeepSeek,那么就需要到DeepSeek的开放平台去申请一个API Key,并配置在我这个插件中,配置完成后可以测试一下。

然后就是选择模型等操作。

配置完成后LLM节点就可以正式使用了。
5)增加HTTP请求节点
如果你还想让输出更“聪明”,比如结合天气、日期或外部数据,可以在 LLM 后面再拖入一个「HTTP Request」节点。这个节点可以向任意 API 发起请求,比如天气 API,用来补充更多个性化信息。你可以把从外部接口拿到的字段继续传入 LLM 或给后续节点使用。这个步骤类似给流程加一个“外挂能力”,让它不只会写文案,还能查资料、连互联网、做真实世界的数据交互。
我们首先新建一个HTTP Server,用于接收Dify发送过来的请求。
func main() {
http.HandleFunc("/send", func(w http.ResponseWriter, r *http.Request) {
param := r.URL.Query().Get("str")
fmt.Fprintf(w, "Received GET request with parameter: %s", param)
})
// 启动服务器
port := ":8080"
log.Printf("服务器运行在 http://localhost%s", port)
log.Fatal(http.ListenAndServe(port, nil))
}然后在Dify流程中创建HTTP节点,发送HTTP Request。

后面我们就可以测试这个流程啦
我们点击测试运行,然后开始节点会让我们输入name参数的值,我们可以自定义数据进行输入,然后点击开始运行。

后面这个工作流就会自动的拿着我们填写的参数去调用LLM,然后将返回值再进行HTTP接口的调用:

到这里,一个“输入名字 → 输出温柔早安提示” 的 Dify 工作流就算跑通了。虽然看起来只是一个很简单的小程序,但它已经完整覆盖了一个 AI 应用从 输入、处理、生成到扩展能力 的完整链路。更重要的是,你会发现——AI 应用并不是一个冷冰冰、需要很强代码功底的东西,只要你能把需求拆成几个小动作,Dify 就能帮你把每一步串起来。
如果你继续往下挖,其实还能玩出更多花样:
当你把这些能力组合在一起的时候,你就不只是跑通了一个 Hello World,而是真正掌握了构建 AI 自动化应用的思维方式。
未来你可能会开发一个自动写日报的小助手、一个能分析股票情绪的小工具,甚至一个个性化的生活 AI 伙伴。而这一切,都是从这个小小的“早安提示”开始的。
所以我们已经迈出了做 AI 应用的第一步。接下来,只需要继续动手,继续尝试,把更多想法交给 Dify 去实现,就行了。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。