Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >只是文档灌Dify?RAG发展一篇文就入门!

只是文档灌Dify?RAG发展一篇文就入门!

作者头像
腾讯云开发者
发布于 2025-04-04 01:58:17
发布于 2025-04-04 01:58:17
2330
举报

RAG,全称检索增强生成(Retrieval-Augmented Generation),作为当前 AI 应用中常见的辅助方法,有效提升了 LLM 输出的准确性和可靠性。但总有人戏言,RAG 不过是“把文档丢进 Dify”这么简单,真的吗? 关于 RAG 的技术流程,网上已经有非常多高质量的文章介绍,因此笔者想从 RAG 的技术发展角度来写这篇文章,从最基本的 RAG 到当前热门的 Graph RAG、Agentic RAG,介绍 RAG 的不同类型和区别,希望大家能够从文中受益。

关注腾讯云开发者,一手技术干货提前解锁👇

01、RAG 是什么

介绍 RAG 前,先介绍大语言模型(LLM)面临的两个问题,一是 LLM 的知识截止,二是 LLM 存在幻觉现象

1.1 知识截止

LLM 训练不是实时的,而是离线训练好的。在训练过程中,使用的数据都是提前准备的,而且大多数是公开、开源的数据,这就导致了 LLM 训练后具备的知识是有范围的。换句话说,模型知识仅限于训练数据所涵盖的知识范围,对于新的知识(比如今天的新闻)或未训练的知识(比如未公开的数据),模型本身不具备这些知识,仅具备推理能力。

1.2 幻觉现象

幻觉现象有多种维度的解释。一方面,LLM 是一个条件概率模型,以前文作为条件的词表概率逐词生成文本,这一机制导致其可能出现看似逻辑严谨(概率高)但其实缺乏事实依据的生成,也就是“一本正经地胡说八道”。另一方面,LLM 的训练过程,是对训练数据的知识进行压缩提炼的过程,但不是无损压缩知识,边缘知识容易在主流知识冲击下出现扭曲,导致产生了幻觉。

打个比方,LLM 好比一个多年备战的考生,当他在做试题的时候,遇到他从没学过的新学科知识点时,就无从下笔(知识截止);当他遇到他没掌握牢固的知识点时,就凭借模糊的记忆或真或假地编了个答案(幻觉现象)

1.3 RAG

而 RAG 就是一种能够有效幻觉模型知识截止和幻觉现象的方法。RAG 是检索增强生成(Retrieval-Augmented Generation)的缩写。检索增强生成,是指对大语言模型(LLM)输入进行优化,使其能够在生成响应之前引用训练数据来源之外的知识,作为回答的根据。这是一种经济高效地改进 LLM 输出的方法,让 LLM 保持相关性、准确性和实用性。

RAG系统有两个最主要的组成部分:

  • 检索(Retrieval):查询外部数据源,例如知识库、向量数据库或者网页搜索API。常见的检索方法有全文检索、向量检索、图检索等。
  • 生成(Generation):将检索信息提供给 LLM,生成回答。

对于大模型这个考生来说,RAG 就像参考书或者“第二个大脑”,让模型遇到没学过或者学不牢的知识点时可以翻一翻书找参考资料,提高回答问题的准确性。

02、RAG 的发展

从近年 RAG 的发展历程看,RAG 主要经历了 Naive RAG、Advanced RAG、Modular RAG、Graph RAG,以及最近热门的 Agentic RAG 几种类型的发展。

  • Naive RAG 是 RAG 最基础的实现。
  • Advanced RAG 是在 Naive RAG 的基础上,对检索前、检索、检索后分别进行优化。
  • Modular RAG 代表了主流 RAG 的工程化实现。
  • Graph RAG 利用图检索能力,让 RAG 增强 multi-hop 检索和丰富上下文。
  • Agentic RAG 利用 Agent 能力,让 RAG 有了智能化的思考分析,大大增强了检索能力。
2.1 Naive RAG

Naive RAG 是 RAG 系统的最基本实现,使用单一的全文检索或向量检索,从文档集合中检索出与 query 相关的文档,直接将检索的文档用于增强 LLM 的生成。

Naive RAG 具有几个局限性:

  • 缺乏语义理解:全文匹配依赖词汇匹配,无法捕捉到 query 与文档之间的语义关联;向量检索受限于间接匹配,语义理解能力也不足。
  • 输出效果差:由于缺乏对 query、文档的高级预处理、后处理,召回的文档容易包含过多或过少信息,导致最终生成的回答过于宽泛。
  • 效果优化困难:系统过于依赖单一检索技术,未对 query、文档进行增强,导致优化局限于检索技术。
2.2 Advanced RAG

Advanced RAG 在 Naive RAG 的基础上,对检索前、检索、检索后三个阶段进行改进。

检索前阶段,增强文档质量,比如优化章节结构、增强标题等,过滤低质量信息;优化索引结构,优化 chunk size 使得 context 粒度符合应用场景的需求;优化索引信息,对 chunk 进行提取、增强,作为 embedding 文本;对用户 query 的进行 rewriting。

检索阶段,使用域内知识对 embedding 进行 fine-tune,或使用 llm-based embedding 模型,生成对上下文理解更准确的语义向量。

检索后阶段,增加 reranking 提高检索文档的相关性,增加 context-compression 使提供给模型的信息更加集中。

2.3 Modular RAG

Modular RAG 是当前主流的 RAG 系统设计,将检索和生成分解为独立可复用的组件,从而实现特定域的优化和任务适应性。Modular RAG 将 RAG 系统所使用到的多种检索、存储、路由等等全部模块化,并且可以根据特定的场景,对这些模块进行重新排列,如多种检索方式的混合检索等,以取得更好的效果。

2.4 Graph RAG

Graph RAG 使用图结构来扩展传统的 RAG 系统,利用图的关系和层级结构,增强 multi-hop 推理和 context 丰富度。Graph RAG 可以生成的结果更丰富更准确,特别是对于需要关系理解的任务。

Graph RAG 具备以下局限性:

  • 高质量图数据依赖:高质量的图数据对 Graph RAG 非常关键,如果处理出高质量的图数据有时很困难,特别是对于无结构的纯文本或标注质量不高的数据。
  • 应用的复杂性:对于一个 RAG 系统,同时支持非结构化数据和图数据的混合检索,会增加检索系统设计和实现的复杂性。
2.5 Agentic RAG

与前面的静态 RAG 不同,Agentic RAG 使用能够动态决策和工具调用的 LLM-based agent,来解决更加复杂、实时和多域的查询。

得助于 LLM-based 的工具调用能力,Agentic RAG 能够使用更多更复杂的工具来辅助检索,比如搜索引擎、计算器等各类以 API 形式能够访问的工具。另外 Agentic RAG 可以根据实际的检索场景动态决策,比如决定是否进行检索、决定使用什么工具检索、评估检索到的上下文决定是否需要继续检索等等。

03、总结

RAG

特点

优点

Naive RAG

- 单一索引,如TF-IDF、BM25、向量检索

- 简单,易于实现- 缓解模型幻觉

Advanced RAG

- 文档增强- 索引优化- query重写- reranking

- 更准确的检索- 增强检索相关性

Modular RAG

- 混合检索- 工具、API集成- 模块化、工程化的实现

- 更强的灵活性- 适应更多元的场景

Graph RAG

- 图结构索引- multi-hop推理- 基于图节点的上下文内容增强

- 关系推理能力- 适合结构化数据

Agentic RAG

- 使用LLM-based agents- 动态决策、检索- 自动流程优化

- 更高的检索准确性- 适合更复杂、更多域的任务

从 RAG 近年来的发展的来,未来 RAG 的发展有几个方向:

  • 智能化:随着 LLM 应用的发展,功能越来越复杂,对 RAG 的要求也会越来越高。Agentic RAG 是这个方向的开始,未来更加智能的 RAG 才能成为 LLM 的“好搭档”。
  • 数据多元化:Graph RAG 让 RAG 有了图检索的能力,但是如何将普通文本、图数据,以及其他类型的数据比如代码、图片等等多元化的数据,兼容到一个统一的 RAG 系统里进行索引、检索、排序,未来复杂 LLM 应用将会对这个能力提出挑战。

-End-

原创作者|章文俊

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-04-02,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 腾讯云开发者 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
LLM RAG 技术剖析与演进
RAG(Retrieval-Augmented Generation,检索增强生成) 是一种将大语言模型(LLM)与模型外知识库检索相结合的技术架构。
windealli
2025/03/12
3080
LLM RAG 技术剖析与演进
最全梳理:一文搞懂RAG技术的5种范式!
本文主要回顾 RAG 技术的发展,第一部分梳理了综述和关键论文,第二部分梳理了工程实践工具。 
Datawhale
2025/02/24
1.5K0
最全梳理:一文搞懂RAG技术的5种范式!
同济大学发布最新检索增强(RAG)的LLM生成技术综述
摘要主要介绍了大型语言模型(LLMs)在实际应用中面临的挑战,比如幻觉、知识更新缓慢和答案缺乏透明度等问题,并提出了检索增强生成(Retrieval-Augmented Generation,RAG)作为一种解决方案。RAG通过从外部知识库检索相关信息来辅助大型语言模型回答问题,已经被证明能显著提高回答的准确性,减少模型产生的幻觉,尤其是在知识密集型任务中。
唐国梁Tommy
2023/12/21
16.9K0
同济大学发布最新检索增强(RAG)的LLM生成技术综述
RAG 范式、技术和趋势
这里分享同济大学 Haofen Wang的关于检索增强生成的报告:《Retrieval-Augmented Generation (RAG): Paradigms, Technologies, and Trends》 ,RAG 范式、技术和趋势。
JadePeng
2024/03/16
1.5K0
RAG 范式、技术和趋势
一文读懂 Agentic RAG 技术点滴
Hello folks,我是 Luga,今天我们来聊一下人工智能应用场景 - 提升大型语言模型(LLMs)的知识获取和生成能力的 Agentic RAG(智能增强检索生成)技术。
Luga Lee
2025/04/04
1270
一文读懂 Agentic RAG 技术点滴
干货!带你了解7种检索增强生成 (RAG) 技术
在简单RAG中,大型语言模型(LLM)接收用户查询,在向量存储库中进行相似性搜索或在知识图谱中进行关系搜索,然后基于检索到的信息生成答案。
致Great
2025/01/06
5.3K0
干货!带你了解7种检索增强生成 (RAG) 技术
RAG:我不只是一个检索器!
年初在我独到的技术见解:LLM的演进与发展文章中和大家分享了LLM的应用和发展,其中有简单介绍过RAG技术,也提到我个人建议在大模型的应用中,能用prompt搞定就别碰RAG,能利用好RAG技术实现需求就别去训练模型,非要训练模型能sft就别pretrain,以上三个大招都用上都实现不了你的需求,非要训自己的垂域大模型,那就快点准备数据,真正应用的时候,估计还是躲不掉三面三步。(不针对算法人员,我说应用呢~)
languageX
2024/06/22
1K0
RAG:我不只是一个检索器!
七种RAG架构cheat sheet!
RAG 即检索增强生成(Retrieval - Augmented Generation ),是一种结合检索技术和生成模型的人工智能方法。
codetrend
2025/01/24
3520
七种RAG架构cheat sheet!
RAG七十二式:2024年度RAG清单
回顾2024,大模型日新月异,智能体百家争鸣。作为AI应用的重要组成部分,RAG也是“群雄逐鹿,诸侯并起”。年初ModularRAG持续升温、GraphRAG大放异彩,年中开源工具如火如荼、知识图谱再创新机,年末图表理解、多模态RAG又启新征程,简直“你方唱罢我登场”,奇技叠出,不胜枚举!
AI研思录
2025/02/20
2090
RAG七十二式:2024年度RAG清单
2024年RAG:回顾与展望
根据RAG技术结构可以分成三类,代表了不同的技术复杂度,越复杂也代表实现难度越大。但是可能会收到更好的效果,适应更多的场景,这三类类型是:
致Great
2025/01/01
8612
大模型+RAG,全面介绍!
大型语言模型(LLMs)在处理特定领域或高度专业化的查询时存在局限性,如生成不正确信息或“幻觉”。缓解这些限制的一种有前途的方法是检索增强生成(RAG),RAG就像是一个外挂,将外部数据检索集成到生成过程中,增强模型提供准确和相关响应的能力。
算法进阶
2024/05/31
8400
大模型+RAG,全面介绍!
RAG从入门到放弃
想象一下,你有一个非常聪明但是有点“健忘”的朋友——大型语言模型(LLM),比如 GPT 系列。它能写诗、能编程、能跟你聊天,听起来很厉害吧?但是,它所知道的知识都来自于训练它的海量数据,这些数据是有时间范围的,而且不包含你个人或者特定领域最新的、私有的信息。
星哥玩云
2025/04/01
1040
RAG从入门到放弃
【原创】一文读懂RAG的来源、发展和前沿
检索增强生成(Retrieval Augmented Generation,RAG)结合了检索 (Retrieval) 和生成 (Generation) 两个过程,旨在提高机器生成文本的相关性、准确性和多样性。RAG通过在生成文本输出之前先检索大量相关信息,然后将这些检索到的信息作为上下文输入到一个生成模型中,从而缓解了幻觉问题。
zenRRan
2024/03/25
4.4K0
【原创】一文读懂RAG的来源、发展和前沿
从零开始优化 RAG 流程的终极指南,解决检索增强生成的核心挑战
首先,我们将 RAG 工作流程分为三个部分,以增强我们对 RAG 的理解,并优化每个部分以提高整体性能:
致Great
2025/02/22
7550
从零开始优化 RAG 流程的终极指南,解决检索增强生成的核心挑战
2024技术总结:LLM之RAG技术全栈进化解析、Agent应用案例精选、LLM大模型部署实战指南
嘿,大家好!作为一名技术宅,我在2024年与AI的大型语言模型(LLM)技术有了不少“亲密接触”,感觉就像是和一位日益聪明的老友并肩前行。
汀丶人工智能
2025/01/25
6030
2024技术总结:LLM之RAG技术全栈进化解析、Agent应用案例精选、LLM大模型部署实战指南
RAG科普文!检索增强生成的技术全景解析
增强生成 (RAG) 是塑造应用生成式 AI 格局的关键技术。Lewis 等人在其开创性论文中提出了一个新概念面向知识密集型 NLP 任务的检索增强生成之后,RAG 迅速成为基石,提高了大型语言模型 (LLM) 输出的可靠性和可信度。
致Great
2025/02/15
7740
RAG科普文!检索增强生成的技术全景解析
聊聊langchain4j的RAG
RAG(Retrieval-Augmented Generation)即检索增强生成,它通过检索来获取相关信息,注入到prompt,然后用增强的prompt然后输入给LLM让LLM在回答的时候能够利用检索到信息,从而降低幻觉。常见的信息检索方法包括:全文(关键词)搜索、向量搜索(语义搜索)、混合搜索。目前langchain4j以向量搜索为主(例如通过Qdrant等向量数据库构建高效检索系统),后续会扩展支持全文搜索及混合搜索(目前Azure AI Search支持,详细见AzureAiSearchContentRetriever)。
code4it
2025/03/17
1700
聊聊langchain4j的RAG
【RAG】001.1-RAG相关核心概念
RAG(Retrieval-Augmented Generation,检索增强生成)是一种结合信息检索与生成模型的混合架构,旨在提升生成的准确性和可信度。其核心概念可归纳为以下六个方面:
訾博ZiBo
2025/03/26
2530
一文搞懂大模型!基础知识、 LLM 应用、 RAG 、 Agent 与未来发展
LLM 探秘:想要深入了解人工智能界的“新宠”大型语言模型(LLM)吗?本文将带你走进 LLM 的世界,从入门知识到实际应用,全方位解读这个充满魔力的“大模型”。我们将一起揭开 LLM 的神秘面纱,领略其在各个领域的独特魅力。无论你是初学者还是有一定基础的 AI 爱好者,这篇文章都将为你提供宝贵的知识和启发,让你的 AI 之旅更加精彩纷呈!快来加入我们,一起探索 LLM 的奥秘吧!
腾讯云开发者
2024/07/19
5.2K0
一文搞懂大模型!基础知识、 LLM 应用、 RAG 、 Agent 与未来发展
【RAG】001-RAG概述
检索增强生成(Retrieval-Augmented Generation,RAG)技术能够有效解决上述问题:
訾博ZiBo
2025/03/25
1710
【RAG】001-RAG概述
相关推荐
LLM RAG 技术剖析与演进
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档