Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >RAG还是微调,怎么选?

RAG还是微调,怎么选?

作者头像
统计学家
发布于 2024-11-25 08:29:27
发布于 2024-11-25 08:29:27
4110
举报

要想提高大模型在特定行业与场景中输出的适应性与准确性,除了使用RAG,还可以使用自己的数据对大模型进行微调。那么这两种方案的区别及选择的标准是什么呢?

我们首先简单了解一下大模型微调。以OpenAI公司的GPT大模型为例,一个GPT架构的大模型的训练通常需要经过以下几个阶段。

1.预训练阶段

这是整个过程中最复杂的阶段,像GPT-4这样的模型在预训练阶段通常需要成千上万个GPU,在海量的无标记的数据上训练数月。这个阶段其实占用了全部阶段的大部分时间。预训练阶段的输出模型一般叫基座模型,有的基座模型会被发布(比如开源的Llama),而有的基座模型不会被发布(比如GPT-4)。

基座模型本身是可以直接使用的,但通常不是一个“回答问题”的模型,而是一个“补全文档”的模型。如果你想让基座模型来回答问题,就必须假装输出一个文档,然后让它来“补全”。比如,你必须提示“下面是一首赞美祖国的诗歌:”,然后让模型来补全,而不能直接要求它“写一首赞美祖国的诗歌”。如何让基座模型变成一个交互式的AI助手呢?那就需要进入后面的阶段:微调。

2.微调阶段

在宏观上可以把后面的阶段都归到微调,即受监督微调、奖励模型+基于人类反馈的强化学习(Reinforcement Learning from Human Feedback,RLHF)阶段。简单地说,这个阶段就是对基座模型在少量(相对于预训练的数据量来说)的、已标注的数据上进行再次训练与强化学习,以使得模型更好地适应特定的场景与下游任务。比如:

(1)强化某个方面的应用能力(比如利用大模型进行情感检测)。

(2)适应特定的使用场景(比如针对人类对话,输出无害、安全的内容)。

(3)适应特定的知识领域(比如医疗或法律行业的特定术语或语义)。

(4)适应某些可标注数据相对稀缺的任务。

(5)适应特定的语言输出要求(比如适应某个场景的语言风格)。

与预训练相比,微调对算力的要求与成本都大大降低,这使得微调对于很多企业来说,在成本与技术上是相对可行的(当然,与RAG范式相比,成本仍然较高)。

大模型微调是一个相对专业的技术任务,涉及较多底层的深度学习的架构、参数及算法知识,以及多种技术(比如全量微调、Prompt Tuning,Prefix Tuning,P-tuning等)。不同的方法对资源与成本、指令数据等有不同的要求,当然达到的效果也不一样。另外,为了简化微调工作,也有一系列用于微调的工具、框架甚至平台可以使用,比如OpenAI针对GPT模型提供的在线微调API、重量级的大模型并行训练框架DeepSpeed等。

实施微调除了需要算力与算法、成熟的平台与工具,还需要生成与标注具有一定规模的高质量数据集,这通常由大量的指令与输出的样本来组成。对于一些行业特征特别突出的垂直领域,数据集的准备是最大的挑战。这些挑战如下。

  • 数据从哪里采集,如何确保专业性与有效性。
  • 对多形态的数据如何清洗与归一。
  • 怎么标注数据的提示、输入、输出等。
  • 处理老化数据,即知识过期后如何反馈到大模型。

继续以前面的例子来说明微调和RAG的区别。如果大模型是一个优秀学生,正在参加一门考试,那么RAG和微调的区别如下。

RAG:在考试时给他提供某个领域的参考书,要求他现学现用,并给出答案。

微调:在考试前一天对他进行辅导,使他成为某个领域的专家,然后让他参加考试。

如何在RAG与微调之间选择适合自己的增强生成方案呢?在实际应用中,需要根据自身的环境(应用场景、行业特征、性能要求等)、条件(数据能力、技术能力、预计成本等)、测试结果(指令理解、输出准确性、输出稳定性等)等来选择(见图1-15)。

与大部分的IT技术一样,无论是微调还是RAG,都有优点,也都有缺点。下面简单地做一下对比供参考(随着两种技术的发展,总结的一些优点和缺点可能会发生变化)。

RAG

微调

优点

1.使用更灵活,可根据需要随时调整Prompt以获得期望输出。 2.技术上更简单。 3.可以输入知识增强的Prompt让大模型立即适应领域知识。 4.无额外的训练成本

1.大模型自身拥有特定知识的输出能力,或适应特定的输出格式。 2.对下游应用更友好,在特定的任务中使用更简单。 3.可以节约推理阶段使用的token,推理成本更低

缺点

1.容易受限于上下文窗口的大小。 2.输入本地知识增强的Prompt在实现上下文连续对话时较困难。 3.大模型输出的不确定性在高准确性的场景中会增加失败概率。 4.输入带有上下文的、较长的Prompt会带来较高的推理成本。 5.随着模型的迭代,可能需要重新调整Prompt

1.非开箱即用。 2.需要额外的数据准备、标注、清洗成本,以及必要的算力与训练成本。 3.需要足够的技术专家,特别是机器学习(Machine Learning,ML)专家、数据专家。 4.微调无法阻止出现“幻觉”问题,过度微调甚至可能导致某些能力下降。 5.模型迭代周期长,对实时性要求高的知识并不适用

无法确切地说在什么场景中必须使用RAG、在什么场景中必须使用微调。结合当前的一些研究及普遍的测试结果,可以认为在以下场景中更适合考虑微调的方案(在不考虑成本的前提下)。

(1)需要注入较大数据量且相对稳定、迭代周期较长的领域知识;需要形成一个相对通用的领域大模型用于对外服务或者运营。

(2)执行需要极高准确率的部分关键任务,且其他手段无法满足要求,此时需要通过高效微调甚至全量微调来提高对这些任务的输出精度,比如医疗诊断。

(3)在采用提示工程、RAG等技术后,无法达到需要的指令理解准确、输出稳定或其他业务目标。

在除此之外的很多场景中,可以优先考虑使用RAG来增强大模型生成。当然,在实际条件允许的前提下,两者的融合应用或许是未来更佳的选择。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-11-24,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器学习与统计学 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
大模型微调与RAG检索增强有何区别?从基础原理到案例分析全面详解
如果你一直在跟着Fanstuck博主的脚步探索AI大模型的相关内容,从最初的大模型Prompt工程解析,DeepSeek全面解析,到实际的私有化大模型开发部署,再到深入NL2SQL、知识图谱大模型和ChatBI等更高阶应用.我是Fanstuck,致力于将复杂的技术知识以易懂的方式传递给读者,热衷于分享最新的行业动向和技术趋势。如果你对大模型的创新应用、AI技术发展以及实际落地实践感兴趣,那么请关注Fanstuck。
fanstuck
2025/03/04
7756
大模型微调与RAG检索增强有何区别?从基础原理到案例分析全面详解
【RAG】001.1-RAG相关核心概念
RAG(Retrieval-Augmented Generation,检索增强生成)是一种结合信息检索与生成模型的混合架构,旨在提升生成的准确性和可信度。其核心概念可归纳为以下六个方面:
訾博ZiBo
2025/03/26
2470
2024!深入了解 大语言模型(LLM)微调方法(总结)
众所周知,大语言模型(LLM)正在飞速发展,各行业都有了自己的大模型。其中,大模型微调技术在此过程中起到了非常关键的作用,它提升了模型的生成效率和适应性,使其能够在多样化的应用场景中发挥更大的价值。
ShuYini
2024/02/23
7.8K0
2024!深入了解 大语言模型(LLM)微调方法(总结)
Fine-Tuning Vs RAG ,该如何选择?
随着技术的不断进步,LLM 带来了前所未有的机遇,吸引了开发者和组织纷纷尝试利用其强大的能力构建应用程序。然而,当预训练的 LLM 在实际应用中无法达到预期的性能水平时,人们将不由自主地开始思考:我们到底应该使用哪种技术来改善这些模型在特定场景下的表现?
Luga Lee
2024/11/01
1490
Fine-Tuning Vs RAG ,该如何选择?
2024年大语言模型的微调
一个LLM的生命周期包含多个步骤,下面将讨论这个周期中最活跃、最密集的部分之一 -- fine-tuning(微调)过程。
charlieroro
2024/03/08
4410
2024年大语言模型的微调
OpenAI放开ChatGPT微调接口!国内厂商压力山大!|附详细微调操作指南
“ OpenAI 于近日放开 ChatGPT 微调接口,这对于开发者来说无疑是一个利好消息。微调可以帮助开发者根据自己的特定需求对 ChatGPT 进行个性化定制,从而提升模型的性能。
技术人生黄勇
2024/07/19
4630
OpenAI放开ChatGPT微调接口!国内厂商压力山大!|附详细微调操作指南
RAG VS Fine-Tuning模型微调详解
这里先给大家推荐一篇实用的好文章:《一文彻底弄懂 Spring Boot 自动装配的过程!深入探索与案例解析》 来自作者:bug菌
小马哥学JAVA
2024/11/22
1580
【RAG】001-RAG概述
检索增强生成(Retrieval-Augmented Generation,RAG)技术能够有效解决上述问题:
訾博ZiBo
2025/03/25
1690
【RAG】001-RAG概述
微调LLMs:概述、方法和最佳实践(附天工Skywork-13B微调)
从总体上看,大模型的训练可以分为四个关键阶段:预训练、有监督微调、奖励建模和强化学习。
AI进修生
2024/12/02
3620
微调LLMs:概述、方法和最佳实践(附天工Skywork-13B微调)
AI大模型进阶系列(01)看懂AI大模型的主流技术 | AI对普通人的本质影响是什么?
2010年至今,我们见证了移动互联网时代、大数据时代、短视频时代,以及炙手可热的通用AI时代。科技技术迭代之快,让15年时间短得仿若一梦。而强大的AI智能,到底会给我们的现实世界产生哪些影响,尤其是全社会对超级AI能力的无限期许,让AI技术的每一个进展都会成为时下社会关注和讨论的热点。
拉丁解牛说技术
2025/04/03
5420
RAG 技术综述
检索增强生成(Retrieval Augmented Generation,简称 RAG)向 LLM 提供了从特定数据源检索的信息,以此作为生成答案的基础。简而言之,RAG 结合了搜索和 LLM 的提示功能,在此基础上,模型根据搜索算法提供的信息,作为上下文来回答问题。这些查询和检索到的上下文会一并被注入到发送给 LLM 的提示中。
科技之歌
2024/02/01
1.6K0
RAG 技术综述
带你全面了解 RAG,深入探讨其核心范式、关键技术及未来趋势!
大型语言模型(LLMs)已经成为我们生活和工作的一部分,它们以惊人的多功能性和智能化改变了我们与信息的互动方式。
ShuYini
2024/01/11
4.8K0
带你全面了解 RAG,深入探讨其核心范式、关键技术及未来趋势!
大模型+RAG,全面介绍!
大型语言模型(LLMs)在处理特定领域或高度专业化的查询时存在局限性,如生成不正确信息或“幻觉”。缓解这些限制的一种有前途的方法是检索增强生成(RAG),RAG就像是一个外挂,将外部数据检索集成到生成过程中,增强模型提供准确和相关响应的能力。
算法进阶
2024/05/31
8390
大模型+RAG,全面介绍!
从理论到实践:使用JAVA实现RAG、Agent、微调等六种常见大模型定制策略
大语言模型(LLM)在过去几年中彻底改变了自然语言处理领域,展现了在理解和生成类人文本方面的卓越能力。然而,通用LLM的开箱即用性能并不总能满足特定的业务需求或领域要求。为了将LLM更好地应用于实际场景,开发出了多种LLM定制策略。本文将深入探讨RAG(Retrieval Augmented Generation)、Agent、微调(Fine-Tuning)等六种常见的大模型定制策略,并使用JAVA进行demo处理,以期为AI资深架构师提供实践指导。
小马哥学JAVA
2025/03/18
5330
一文读懂大型语言模型微调技术挑战与优化策略
LLMs (Large Language Models )正在引领人工智能技术的新浪潮。这种先进的 AI 通过利用统计模型分析海量数据,学习单词和词组之间的复杂模式,从而模拟人类认知和语言能力。LLMs 的强大功能已引起了众多头部企业以及科技爱好者的浓厚兴趣,他们纷纷竞相采用这些由人工智能驱动的创新解决方案,旨在提高运营效率、减轻工作负担、降低成本支出,并最终激发出更多创造业务价值的创新想法。
Luga Lee
2024/11/01
1650
一文读懂大型语言模型微调技术挑战与优化策略
Prompt、RAG、微调还是重新训练?选择正确的生成式 AI 的方法指南
这篇博客试图根据一些常见的可量化指标,为您选择适合您用例的生成式人工智能方法提供指导。
叶庭云
2023/08/18
3.8K0
Prompt、RAG、微调还是重新训练?选择正确的生成式 AI 的方法指南
对于大模型,到底微调还是不微调?
调整开源大语言模型(LLM)的系列博客的第二篇文章。本文讨论:“什么时候应该进行微调,什么时候应该考虑其他技术?”
JavaEdge
2024/09/16
4270
对于大模型,到底微调还是不微调?
大模型训练全解析:预训练、微调、强化学习,一步到位!
2025年初,随着DeepSeek的迅速走红,公众对LLM(大语言模型)的兴趣急剧上升。许多人被LLM展现出的近乎魔法的能力所吸引。然而,这些看似神奇的模型背后究竟隐藏着什么秘密?接下来,我们将深入探讨LLM的构建、训练和微调过程,揭示它们如何从基础模型演变为我们今天所使用的强大AI系统。
福大大架构师每日一题
2025/03/18
5160
大模型训练全解析:预训练、微调、强化学习,一步到位!
身处AI浪潮中,你get到了什么
最近几年,大模型和AI毫无疑问是最热的话题和方向。最初的OpenAI作为大语言模型技术的重要推动者,引领了本次技术变革。后期ChatGPT的发布引爆全球,影响力度大到国家战略层面,小到改变了个体的工作模式。而在近两年,为了追赶业界最先进的大模型,国内在大模型行业也在不断突破,这才有了我们比较熟知的腾讯元宝、文心一言、通义千问、豆包等等。当然,最火爆的还得是今年的
六月的雨在Tencent
2025/03/22
4010
通过结合RAG和微调来改进LLM输出
在设计一个特定于领域的企业级会话式问答系统来回答客户问题时,Conviva 发现要么/要么的方法是不够的。
云云众生s
2024/05/02
4320
通过结合RAG和微调来改进LLM输出
推荐阅读
相关推荐
大模型微调与RAG检索增强有何区别?从基础原理到案例分析全面详解
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档