大语言模型(Large Language Model, LLM
)是基于深度学习的自然语言处理模型,通常使用大量的文本数据进行训练。它们能够理解、生成、翻译、总结和回答自然语言问题。其核心思想是通过对大量语料库的学习,捕捉语言中的规律和结构,从而进行预测和生成
大语言模型的关键特点
GPT-3
有1750亿参数。3.基于Transformer架构:
它是模型处理文本的最小语义单元。Token可以是单词、子词、字符,甚至是标点符号或特殊符号。理解Token的作用和分词方式,是掌握大语言模型如何学习和生成文本的关键。
中英文Token的差异
语言 | 典型Token长度 | 例子 | 特点 |
---|---|---|---|
英文 | 1 Token ≈ 4字符 |
| 长单词拆分(如 |
中文 | 1 Token ≈ 1-2个汉字 |
| 单字或常见词组为主 |
分词器差异:
不同模型的分词策略不同(如GPT-4与Claude的分词方式可能不同),导致同一文本的Token数量和切分结果不同
示例:输入到输出流程
输入文本: "The capital of France is ______."
处理步骤:
["The", "capital", "of", "France", "is", "______", "."]
[5, 12, 7, 356, 10, 999, 3]
"Paris"
(对应Token ID 42)。"The capital of France is Paris."
本质上是基于已输入的上下文,计算下一个可能出现的 Token 的概率分布,并从中选择最终输出的过程。最简单的办法就是基于统计** 通过大量数据的统计,找到下一个 Token。
Token 预测的关键策略
输入:“中国的首都是”
预测:每一步选最高概率 → “北” → “京” → “。”
输出:“中国的首都是北京。”
候选1:“北京”(概率0.7) → 候选1扩展:“北京是”(总概率0.7×0.6=0.42)
候选2:“南京”(概率0.3) → 候选2扩展:“南京曾”(总概率0.3×0.8=0.24)
最终保留总概率最高的候选1。
概率分布:北京(0.7)、南京(0.2)、东京(0.1)
采样结果可能为“南京”(以20%概率选中)。
首先,需要大量的文本数据作为输入,这些数据通常来自各种来源,如新闻文章、书籍、网页内容等。数据的处理步骤包括:
大语言模型通常采用Transformer架构,特别是自注意力机制(Self-Attention) ,以捕捉词与词之间的关系和上下文。Transformer架构可以分为两种主要结构:
训练的核心步骤如下:
训练是一个循环过程。每次通过数据集后,模型参数会进行调整,通常训练会进行多轮(Epoch)。每轮的训练都会让模型在特定任务上表现得更好。
大语言模型通常先进行预训练,学习语言的基础知识。然后,针对特定任务(如文本分类、问答系统)进行微调,使模型更好地适应该任务的要求。
Agent(智能体) 是指能够感知环境、自主决策并采取行动以实现特定目标的实体。在人工智能领域,Agent通常指通过算法和模型驱动的程序或系统,能够与环境交互并完成复杂任务
以下是基于文本的架构描述(可用工具如Draw.io、Lucidchart绘制):
+-------------------+ +-------------------+ +-------------------+
| 环境交互层 |<----->| 决策模块 |<----->| 执行模块 |
| (感知与行动) | | (分析、规划、推理) | | (动作/输出) |
+-------------------+ +-------------------+ +-------------------+
↑ ↑ ↑
[传感器/API] [规则/模型/LLM] [机械臂/机器人/软件]
- 示例:机械臂抓取物体、软件调用API发送数
LLM
+ 企业自有知识库构建的 AI 智能客服机器人<!---->
1. *智能代码提示 *:能根据对应的注释生成对应的代码。
2. *SQL 语句智能生成 *:将自然语言转换成结构化的 SQL 语句。
3. *静态代码检查与自动修复 *:查看程序错误并给出解决方案。
4. *单元/接口测试代码生成 *:根据对应的代码生成单元测试代码。
5. *代码评审和重构 *:审核对应代码的功能。
6. *失败用例自动分析与归因 *:根据程序抛出的错误进行总结分析。
7. *重复代码检查 *:自动检查代码中可复用的部分。
8. *跨端代码快速转换 *:快速将同一个功能的代码转换成另外一种代码,例如 Vue.js 转 React。
9. *代码注释生成 *:快速为每一行代码添加上注释。
*更精准的技术问答 *:代替 Google 实现更高效率、更精确的问答。速获得与自己问题相关的资源,避免了无效的查找和搜索。
在正式聊 AI 编程对程序员的影响前,我们先来看下按照特定规则划分的 AI 自动化编程的 5 个等级:
1. *C1 *:基于当前代码自动补全。
2. *C2 *:编写代码时AI可以预测下一行代码。
3. *C3 *:基于自然语言生成代码与编程语言的翻译。
4. *C4 *:高度自动化编程包括自然语言生成代码及注释、自动化测试、编程语言互译、代码补全与生成、调试及检查。
5. *C5 *:完全自动编程,AI可以看成是一个任意的软件,甚至无需代码,基于AI本身即可提供对应的服务。
如果按照这 5 个等级,目前 *大语言模型位于 C3-C4 的阶段,对于一些简单的项目可以一次性完成,复杂项目仍然无能为力 *。
<!---->
<!---->
<!---->
维度 | LLM(大型语言模型) | RAG(检索增强生成) | Agent(智能体) |
---|---|---|---|
技术定位 | 基础文本生成与理解 | 知识增强型生成 | 自主决策与行动 |
核心架构 | Transformer 自注意力机制 - 千亿级参数模型 | LLM + 检索系统(向量数据库/搜索引擎) | LLM + 规划器 + 工具调用 + 记忆模块 |
关键技术突破 | GPT-3(2020) - 思维链(2022) | REALM(2020) - DPR(2021) | ReAct框架(2022) - AutoGPT(2023) |
核心能力 | 文本生成 - 零样本推理 | 动态知识融合 - 减少幻觉 | 多步骤规划 - 工具调用与协作 |
典型应用场景 | 聊天机器人 - 代码生成 | 知识库问答 - 事实性内容生成 | 自动化工作流 - 多Agent协作系统 |
关键挑战 | 知识静态性 - 幻觉问题 | 检索效率与精度 - 知识碎片整合 | 复杂任务规划 - 安全可控性 |
技术演进方向 | 多模态融合 - 轻量化(如Phi-3) | 混合检索(语义+关键词) - 实时知识更新 | 具身智能 - 联邦式多Agent协作 |
资源消耗 | 极高(训练/推理成本) | 中等(需维护检索系统) | 高(实时交互+工具调用) |
代表项目 | GPT-4、Llama3、PaLM | ChatGPT + 联网搜索、Perplexity | AutoGPT、MetaG |
技术演进关系图解 LLM(基座能力) ↓ RAG(知识扩展) ↓ Agent(行动升级) ↑ 多模态/具身智能(未来融合)
LLMOps(Large Language Model Operations) 是针对大型语言模型(LLMs,如 GPT、PaLM 等)的全生命周期管理实践,结合了传统 MLOps(机器学习运维)与 LLMs 的独特需求。它涵盖以下核心内容:
**低门槛创建 AI Agent**
一个AI Agent应用涵盖了 *LLM、记忆、工具、Prompt、规划、知识库、执行者 *等模块,但每个应用的流程又比较接近,对开发者和非开发者都不友好。
有没有一个平台,能在可视化界面通过鼠标拖拽对应的模块+提示词等内容,就可以让无编程基础的人也可以快速创建一个AI Agent应用并调试部署?
在以往这种平台叫做低代码平台,在低代码平台上去拖拽对应的组件,可以快速创建 APP、快速创建小程序、快速创建网站等等。
基于这个概念和想法,于是就有了 LLMOps 这个概念。
**02. LLMOps 的定义与具体目标**
LLMOps是一个基于LLM的应用程序的生命周期管理平台或者工具,涵盖了 *LLM应用的开发、部署、配置、运维 *。
虽然 LLM 在原型开发中使用起来特别简单,下载 Python 配置相应的接口,就可以便捷和 LLM 进行对话,但是在商业产品中使用 LLM 仍然面临着各种挑战。
LLM 应用开发声明周期包括许多复杂的组件,如 *数据摄取、数据准备、提示工程、模型微调、模型部署、模型监控、工具回调、多 LLM 创联、多 LLM 兼容 *等。
在使用 LLMOps 平台之前,基于 LLM 开发应用的过程会非常繁琐,开发者需要自行处理各个阶段的任务,这可能导致效率低下、难以扩展和安全性问题。
LLMOps对使用者友好,极大降低了企业创建AI Agent应用的成本,把复杂的部分留给了LLMOps开发者。
两种模式开发AI应用流程对比:
1.dify
:生成式 AI 应用创新引擎(http://difyai.com/)
层级 | 组件示例 | 功能说明 |
---|---|---|
数据层 | 结构化数据、非结构化文档、向量数据库 | 存储训练数据、知识库、用户交互日志 |
模型层 | 预训练模型、微调模型、RAG模块 | 模型训练、优化、版本管理 |
服务层 | API网关、推理引擎、负载均衡器 | 模型部署、请求路由、动态扩缩容 |
监控层 | Prometheus、ELK、定制化检测工具 | 性能监控、内容安全审核、用户反馈收集 |
治理层 | 权限控制、审计日志、合规检查工具 | 数据隐私保护、模型行为审计 |
1.应用模块
1.提示词
2.记忆
3.技能
4.知识库
5.开场白
6.追问
7.推荐问题
8.语言
9.敏感内容审核
10.调试对话
2. 工作流模块
工作流不可以单独调用,必须整合应用进行使用。工作流将复杂的任务分解成较小的步骤(节点)降低系统复杂度,减少对提示词技术和模型推理的依赖,提高LLM应用复杂任务的性能。
节点
1.开始:工作流开始节点,可以在开始节点自定义启动工作流的输入变量,每个工作流都需要一个开始节点
2.结束:工作流结束节点每个工作流都执行后都需要至少终止节点,终止节点无法添加其他的节点,工作流程到节点才会输出执行结果
3.大语言模型:调用大语言模型回答问题或者自然语言进行处理。
4.知识库检索:从知识库检索与用户问题相关的文本内容。
5.代码解释器 :代码解释器在运行pythone/Nodejs的窗口,以支持工作流中执行数据转换。支持结构化数据处理,数学计算,拼接数据等
6.条件分支器:允许使用if/else 将工作流拆分成两个分支,执行不同的工作流程线。
7.变量聚合: 负责整合不同分支/节点的输出,将多个输出字段统一到一起。
8.HTTP请求:可以访问外部链接的工具。
9.工具:使用内置的工具,或者自定义工具执行流程节点任务的节点
3.知识库模块
4.工具模块
1.内置工具:LLMOps内置预设的工具
2.自定义工具:通过特定的规范将API编排集成工具
5.大模型
1.支持多种LLM接入,
2,后端新增接入LLM,前端通过API请求获取对应LLM模型。
6.发布渠道
1.webApp模块:将应用发布LLMops的webApp,通过链接即可在访问对应AI应用。
2.企业微信号:配置微信企业ID,将对应的AI应用发布到企业微信 号上,实现微信聊天机器人。
3.微信公号:配置对应的开发者ID,将对应的AI应用发布到微信公众号,
7.广场模块
1.应用广场:LLMOps平台内置的内置的预设编排,并且不同的应用进行分类
2.工具广场:
8.开发API模块:通常对应api地址与秘钥,快速外部应用或者企业资源
9.授权校验模块:手机登录,微信
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。