JeecgBoot 平台的 AIGC 功能模块,是一套类似 Dify 的 AIGC应用开发平台 + 知识库问答 子系统,是一款基于 LLM 大语言模型 AI 应用平台和 RAG 的知识库问答系统。 其直观的界面结合了 AI 流程编排、RAG 管道、知识库管理、模型管理、对接向量库、实时运行可观察等,让您可以快速从原型到生产,拥有 AI 服务能力。
LLM(大模型)节点 是AI流程中的核心组件,负责与大语言模型(LLM
, Large Language Model
)交互,处理用户输入的文本、图片以及提示词,完成文案创作、文本分析、代码生成、图像理解等多种智能任务。
LLM 节点依赖于所配置的大语言模型,不同的模型适用于不同的业务场景。用户可根据实际需求为每个节点灵活选择合适的模型。例如:需要生成高质量代码时,可以选择 DeepSeek
的 coder
模型;
进行图像理解任务时,则推荐使用 OpenAI
的 GPT-4o-mini
模型等。
大模型(LLM)节点是 AI 系统中最具通用性与智能化的能力之一。它能够基于用户的自然语言输入进行复杂的语义理解、内容生成以及多轮对话,从而支撑丰富多样的智能交互需求。
最特别的是,在AI工作流中,我们可以让多个大模型节点配合,一起完成复杂的任务,比如:
用户提供一张图片,让擅长图片理解的OpenAI
来理解图片的内容,然后让擅长中文的DeepSeek
根据图片的内容生成一个富含创意的文案,这样就完成了一个复杂的任务。
大模型节点具备强大的泛化能力与语言理解能力,适用于多个典型应用场景,常见包括:
点击前一节点的图标,选中LLM节点,添加即可
选中添加的LLM(大模型)节点,点击即可配置LLM节点
输入变量用于定义传递给 LLM 节点的参数来源。在节点右侧配置面板中,右侧下拉框选择变量来源节点,左侧输入框填写变量名称。
变量必须来自于当前节点之前的节点(通过连线连接),不能引用后续或并行节点的数据。
输入变量可以通过占位符 {{变量名}}
灵活插入到系统提示词或用户提示词中,实现动态内容填充。例如:
若定义的输入变量来自知识库节点 ,则 LLM 节点在调用模型时,会自动附加来自知识库的检索结果,从而具备 RAG
(Retrieval-Augmented Generation
,检索增强生成)能力。
这一能力大大提升了模型对特定领域信息的理解和应用能力。
只需要在输入变量中定义了知识库节点的变量,LLM 节点就会自动集成知识库的检索结果,无需在 LLM 节点中单独配置!
LLM 节点支持灵活配置使用的模型,输出效果与所选模型密切相关。所有模型均可在 AI 模型配置 模块中统一管理。
点击右侧图标可进入模型参数设置界面,通过调整各项参数以达到更精准的控制目标:
模型参数详解如下:
0
时,模型将以更确定的方式生成内容,适用于追求准确性的任务。0.5 ~ 0.8
,适用于日常对话和内容生成。500~800
800~2000
2000~3600
4000
或选择支持长回复的模型系统提示词用于设定模型的身份(如客服、教师、律师等),以及它应遵循的语气、风格和任务说明。在提示词中可使用 {{变量名}}
形式嵌入输入变量,支持高度个性化的指令编写。
如果不知道该如何编写提示词,可以通过右上角AI生成
按钮,打开提示词生成器,填写自己的需求,让AI帮助我们生成提示词。
用户提示词代表当前轮对话中用户的提问或指令内容,是传递给模型的实际任务描述。同样支持通过 {{变量名}}
动态引用变量,增强指令的灵活性和实用性。
该参数决定了模型在当前轮生成回复时能参考的历史对话条数。历史记录通常包括用户与模型之间的连续交互,有助于模型理解上下文、保持语义连贯。
LLM 节点的输出为固定的字符串类型,通过输出变量名称可供流程中的其他节点引用,便于构建多步骤的智能流程链条。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。