首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >工作流中引入 LLM 节点就成 Agent 平台了吗?

工作流中引入 LLM 节点就成 Agent 平台了吗?

作者头像
磊叔的技术博客
发布2026-01-14 15:23:24
发布2026-01-14 15:23:24
2530
举报

各位读者好,前两天和一位社区同学聊 agent 这个话题,发现大家对于 agent 这个概念的理解存在非常多的理解误差;结合我们在实际工程落地以及开源社区 agent 平台的情况发现,我们目前所谈论的 agent 确实是狭隘了很多。因此借用高铁上几个小时的时间,用一篇文章来聊聊我对 agent 以及 agent 和工作流区别的一些理解。 在生成式人工智能从单纯的对话交互走向复杂任务解决的进程中,AgentWorkflow 的概念似乎在某种程度上被沦为一谈了。当前业界普遍存在一种误解是,将智能体视为一种特定的系统形态或产品界面,试图通过传统的低代码/无代码(Low-Code/No-Code)可视化编排工具来构建具有高度自主性的系统,但是从我的视角来看,这种认知是有问题的。

本篇的目的就是来探讨大模型智能体与工作流系统的关系,挖掘二者在核心逻辑上的差异;这里我先抛出的我一个个人观点:智能体的本质并非某种静态的软件形态,而是一种新的运行时机制,也就是一种将推理从设计时推迟至运行时的计算范式。

一、智能体与工作流的本质差异

什么是智能体?什么是工作流自动化?目前来看,把这两者混在一起理解,几乎是大多数人都会遇到的实际情况。

决定权的转移

传统软件工程的核心追求是 确定性,无论是经典的 ERP 系统,还是基于 BPMN 的企业级系统,亦或是现代的 Zapiern8ndify 等自动化工具,其核心特征在于 控制流是在设计时确定的

在工作流系统中,所有的分支逻辑、条件判断、数据流转路径,在系统部署之前就已经被开发者通过代码或图形化界面显式定义完毕。开发者是逻辑的上帝,系统只是执行者。如果系统遇到一个未被预定义的异常情况,或者输入数据不符合预设的 Schema,系统唯一的选择就是报错或停止。这种系统的优势在于可预测性高、审计容易、成本低廉;但劣势在于僵化,面对未知的边缘情况很难自主闭环。

相比之下,智能体代表了一种 概率性自主性 的结合,智能体系统的核心特征在于,它不依赖于详尽预设的流程图,相反,开发者提供的是一个目标、一组可用的工具以及一些指导原则。系统在运行时,通过大语言模型的推理能力,动态地观察环境、分解任务、选择工具、评估结果,并决定下一步行动。

这种差异意味着控制权的转移:

  • 工作流是如何做的编码:开发者必须清楚每一个步骤,并将其硬编码。
  • 智能体是做什么的编码:开发者定义目标和约束,模型决定路径。

工作流适合那些定义明确、要求高一致性且路径可预测的任务;而智能体则通过牺牲一定的可预测性和成本,换取了处理开放性问题、解决未知错误以及应对即时变化的能力。智能体的价值在于其 涌现性,即在运行时组合出开发者未曾预料到的解决路径(但这个也是目前大多数智能体落地时候所畏惧的事情)。

控制流的形态

从数据结构与算法的角度来看,工作流通常表现为 有向无环图,即使包含条件分支,数据流向总体是向前的,且步骤数量是有限且已知的,DAG 结构非常适合批处理作业和确定性事务,因为其拓扑排序保证了依赖关系的正确执行。

然而,智能体的核心运行机制则是一个 无限循环,最著名的即是 ReAct(Reasoning + Acting) 循环或 OODA(Observe-Orient-Decide-Act)循环。

这个循环包含四个关键阶段:

  1. 1. 感知(Observe):获取当前环境状态、用户输入或上一步工具执行的输出。
  2. 2. 思考(Think/Reason):基于当前上下文和长期记忆,利用 LLM 进行推理,规划下一步行动。这是智能体“智力”的体现,也是“运行时” 决策发生的地方。
  3. 3. 行动(Act):调用外部工具、API 或生成响应。
  4. 4. 反馈(Feedback/Critique):观察行动的输出(如 API 返回结果、代码执行报错),将其作为新的观察输入,回到第一步。

这种循环结构赋予了智能体 自我纠错 的能力。在工作流中,如果 API 调用失败,流程通常会中断。但在智能体循环中,模型会“看到”错误信息(例如“参数无效”),通过推理分析原因,并尝试修正参数后再次调用。这种运行时的自适应能力,是静态 DAG 无法做到的。它模仿了人类解决问题的过程:试错、反思、修正、再尝试。

特性

工作流

智能体

决策时机

设计时

运行时

控制流结构

有向无环图/ 线性

循环/ 递归

核心驱动力

预定义的代码逻辑

模型推理

对错误的反应

异常中断 / 预设的 Fallback

观察错误 -> 推理 -> 重试 (自我修复)

适用场景

高频、确定性、合规性要求高

低频、长尾、开放性、探索性任务

可预测性

开发重心

编排流程步骤

定义工具、Prompt 与记忆机制

混合架构的必然性:工作流作为智能体的“技能”

在实际的工程落地中,架构往往是混合的:将确定性的高频任务封装为工作流,作为一种“工具”提供给智能体调用

这种模式本质上体现了 “以 Action 作为能力抽象” 的设计思路。工作流负责承载核心业务规则,确保执行过程的可控性、准确性与合规性;智能体则聚焦于决策、理解和交互层面,提供更高层次的灵活调度与自然交互能力。通过这种分工,一方面避免了让 LLM 介入其并不擅长的精确计算和严格流程控制,另一方面又不会牺牲整体系统的灵活性与扩展性。

从当前的大量落地案例来看,这类架构已经成为主流做法:要么是在清晰定义的流程主干中引入 LLM 节点增强决策能力,要么由智能体负责任务拆解与调度,底层仍然调用一组确定性的子流程完成执行

二、Action 作为能力抽象

智能体之所以能超越 ChatBot 的范畴,关键在于其具备了行动能力。在技术实现上,这种能力被称为 “工具使用”(Tool Use)或 “功能调用”(Function Calling)。从系统设计的角度看,这不是单纯的 API 对接,而是可以理解为一种 基于语义的能力抽象

API 的再定义

在传统的软件集成中,API 对接依赖于严格的 协议约定,调用方必须严格遵守接口定义的参数类型、顺序和格式;如果字段名从user_id 变成了 userid,程序就肯定会报错。

在智能体架构中,Action 的定义通常基于 JSON Schema,其核心价值在于 语义描述LLM 并非通过编译器的类型检查来理解工具,而是通过阅读工具的名称、描述以及参数的注释来理解这个工具的用途和用法。

例如,一个查询天气的工具,对于传统程序来说只是一个 HTTP GET 请求;对于智能体来说,它是“获取特定地理位置当前气象数据”的能力。当用户问“我明天去合肥出差需要带伞吗”时,智能体通过语义匹配,明白需要先调用天气工具,再根据返回的降水概率进行逻辑判断。

这种机制的特点在于,它允许系统在 不知道具体实现细节 的情况下使用功能,智能体通过阅读文档来学习如何使用 API,这与人类开发者阅读 API 文档的过程非常相似。也就是说,只要工具的描述足够清晰,智能体可以在没有任何代码变更的情况下,适配 API 的微小变化,甚至在运行时发现并纠正参数错误。

协议的标准化

随着智能体需要连接的系统越来越多,点对点的集成方式变得难以维护。2025 上半年 MCP 的出现建立智能体与数据源/工具之间的通用标准。MCP 试图解决的核心问题是 “碎片化”,它的出现标志着 Action 正在从一种应用内部的“功能列表”演变为一种 互联网级别的服务协议,这是构建了一个 “Agent-First”API 生态系统的必要前提。

动态检索与参数填充

在运行时,智能体面临的挑战是如何从成百上千个候选工具中选择最合适的一个或一组,这涉及到复杂的上下文检索与推理。

  • RAG for Tools:当工具数量庞大时,无法将所有工具的 Schema 都放入 Prompt 的有限上下文窗口中。因此,需要引入 RAG 技术,根据用户的当前指令,在向量数据库中检索最相关的 Top-K 个工具,动态注入到 LLM 的上下文中,前提是工具的描述必须具备高质量的语义向量表示。
  • 参数填充与纠错:智能体不仅要选择工具,还要从对话历史中提取信息填充参数。更重要的是,当 LLM 生成的 JSON 格式有误或参数缺失时,现代的智能体框架(如 LangChain)或模型本身(如 OpenAIStructured Outputs)能够捕获解析错误,并将错误信息反馈给模型,要求其重试。这种 “Loop” 机制是 Action 执行成功率的关键保障。

三、智能体平台 = 带 LLM 节点的工作流?

随着 Agent 概念的火爆,出现了很多所谓的“智能体构建平台”。然而,从工程视角来看,其中许多平台在设计理念上存在严重的路径依赖,误将 “带有 llm 节点的可视化工作流” 等同于 “智能体”;另外再加上 AI 时代垃圾信息的灌输,这种观点貌似还越来约深入人心了🐶。

DAG 无法表达认知循环

目前的低代码/无代码平台大多采用基于节点的拖拽式界面,用户通过连线定义流程,这种界面本质上是在构建 DAG。

  • 思维的线性化:图形化界面诱导用户进行线性思考(Step A -> Step B)。如前所述,智能体的本质是递归和循环(Try -> Fail -> Think -> Retry)。在静态画布上表达复杂的循环逻辑、重试机制和异常处理分支极其困难,往往导致“连线地狱”,使得逻辑变得不可读且难以维护。
  • 动态性的丧失:智能体的一个关键能力是根据运行时情况动态决定执行路径(例如:模型决定跳过步骤 B,直接执行步骤 C,或者在步骤 A 和 B 之间插入一个临时的搜索步骤)。在硬编码的连线图中,这种灵活性被扼杀了。如果每一个跳转都需要预先画线,那么这只是一个复杂的 If-Else 程序,而非智能体。对于包含复杂控制流的逻辑,代码(Code)是比图形(Graph)更优越的表达方式,因为代码天然支持抽象、封装、循环和条件判断。

“编排”与“抽象”的混淆

另一个偏差在于对框架角色的误解。LangChain 在早期因其丰富的组件库而被追捧,但是它在发展过程中的 “过度抽象” 也是被诟病的最多的,它隐藏了过多 Prompt 工程和 API 交互的细节,导致开发者在调试时不知道底层到底发生了什么,难以优化。

目前的许多可视化平台更像是 “增强版的工作流引擎”(Workflow++),而非真正的 “智能体运行时”。它们适合处理确定性较高的 RAG 任务或简单链式调用,但在面对需要深度推理、多步规划和自我纠错的复杂任务时,效果一般不会很好。真正的智能体开发需要回归到代码,或者使用能够表达循环和状态机的高级编排工具。

四、回归本质,拥抱复杂性

大模型智能体与工作流系统的关系,应该是由 LLM 来驱动 workflow,而不是 workflow 来驱动 LLM

  • • **智能体 **本质上是一种 运行时机制,它引入了不确定性和自主性,目的是解决那些无法被预先定义的开放性问题,它是软件的“右脑”,负责创造与适应。
  • 工作流 本质上是一种 设计时逻辑,它提供了确定性和可控性,是业务流程合规的基石,它是软件的“左脑”,负责逻辑与秩序。

对于工程团队而言,构建“智能体平台”不应仅仅关注可视化的拖拽,而应致力于解决更底层的问题,如 能力的语义化封装、执行环境的安全与隔离以及状态管理的外部化与持久化等。

只有深刻理解智能体作为 “运行机制” 的本质,我们才能跳出简单的“聊天机器人”思维,构建出真正能够深度嵌入业务、解决复杂问题的智能体系统。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2026-01-08,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 磊叔的技术博客 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 一、智能体与工作流的本质差异
    • 决定权的转移
    • 控制流的形态
    • 混合架构的必然性:工作流作为智能体的“技能”
  • 二、Action 作为能力抽象
    • API 的再定义
    • 协议的标准化
    • 动态检索与参数填充
  • 三、智能体平台 = 带 LLM 节点的工作流?
    • DAG 无法表达认知循环
    • “编排”与“抽象”的混淆
  • 四、回归本质,拥抱复杂性
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档