Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >Rerank进一步提升RAG效果

Rerank进一步提升RAG效果

作者头像
Steve Wang
发布于 2024-05-16 08:13:29
发布于 2024-05-16 08:13:29
1.8K0
举报
文章被收录于专栏:从流域到海域从流域到海域

RAG & Rerank

目前大模型应用中,RAG(Retrieval Augmented Generation,检索增强生成)是一种在对话(QA)场景下最主要的应用形式,它主要解决大模型的知识存储和更新问题。

简述RAG without Rerank的主要过程:

相似度匹配

Question

从向量库或其他存储召回的相关chunk list

提示词

LLM

Answer

从向量库或其他存储召回的相关chunk list会按照检索时指定的距离计算公式由近及远排列,或者假设相似度得分记为distance_score,按distance_score大小从大到小排列。

Rerank指的是在检索结果的排序基础之上再排一次序,将对生成回复真正重要的chunk排在前面,排除干扰项,可以类比理解为推荐算法的粗排精排过程。

为什么需要Rerank?

召回阶段使用向量库进行召回时,要求快速在大规模数据中检索到相关项,该过程需要度量当前question和库内全部向量的相似度,按指定窗口大小得到top x结果。也就是说,召回其实是个穷举过程,那么必然不能使用复杂度特别高的算法来计算相似度,为了召回的性能牺牲了召回的精度

Rerank的概念在大模型之前就已经出现,比如推荐算法搜索算法的精排过程,可以理解为在粗排结果的基础之上进行rerank(精排)。

RAG的Rerank必要性体现在3个方面:

  1. 精度提升:基于embedding的向量化检索过程可以通过一定程度的语义相似度来高效检索相关性较高的文本片段,但由于语义本身的复杂性和多义性,以及高维向量相似度匹配可能产生的噪音,向量检索可能会召回一些相关性较低的候选项。因而引入rerank模型,希望在向量召回(可以理解为粗排)的基础上进一步优化结果,降低为生成提供的参考内容中的无效信息。
  2. 语义匹配:向量库检索过程仅考察了query向量和候选向量在向量空间的语义距离,没有考虑query文本和候选文本其他方面的语义关系,比如上下文信息、句法结构等,而rerank模型有机会通过衡量query文本和候选文本之间更丰富的语义关系实现更精细的语义匹配。
  3. 场景适配:通过自训练rerank模型来进行精排,可以按照特定需求做进一步排序,从而提升QAG在特定应用场景下的表现。
二阶段检索

二阶段检索(Two-Stage Retrieval),即整个检索过程由原本的检索阶段和新增的精排阶段组成。很明显,这种组合方式能最大化利用向量库的检索速度,同时也能保证检索的效果,因而在RAG中广泛采用:检索过程使用基于向量的检索算法,精排过程使用rerank模型。Rerank模型一般基于双编码器(dual-encoder)架构,可以同时encode问题和知识库语料,从而进一步度量两者之间的语义相似度。

网易有道开源的QAnything采用流程的就是两阶段检索,可以理解为RAG with Rerank:

相似度匹配

Rerank

Question

从向量库或其他存储召回的相关chunk list

提示词

精排chunk list

LLM

Answer

Rerank模型

Rerank模型效果公认效果比较好的是一家AI独角兽cohere发布的cohere rerankhttps://cohere.com/rerank,不过该模型是一个闭源商用模型,个人使用有一定的免费额度。

国内中文开源rerank模型中效果比较好的有BAAI的bge系列模型(和这家公司的开源的embedding模型是同一个模型系列):

Model

Base model

Language

layerwise

feature

BAAI/bge-reranker-base

xlm-roberta-base

Chinese and English

-

Lightweight reranker model, easy to deploy, with fast inference.

BAAI/bge-reranker-large

xlm-roberta-large

Chinese and English

-

Lightweight reranker model, easy to deploy, with fast inference.

BAAI/bge-reranker-v2-m3

bge-m3

Multilingual

-

Lightweight reranker model, possesses strong multilingual capabilities, easy to deploy, with fast inference.

BAAI/bge-reranker-v2-gemma

gemma-2b

Multilingual

-

Suitable for multilingual contexts, performs well in both English proficiency and multilingual capabilities.

BAAI/bge-reranker-v2-minicpm-layerwise

MiniCPM-2B-dpo-bf16

Multilingual

8-40

Suitable for multilingual contexts, performs well in both English and Chinese proficiency, allows freedom to select layers for output, facilitating accelerated inference.

详见:https://github.com/FlagOpen/FlagEmbedding/tree/master/FlagEmbedding/llm_reranker 模型可以在hugging face上下载使用:https://huggingface.co/BAAI/bge-reranker-large#model-list

参考文献
  1. 大模型相关技术-为什么需要rerank
  2. ReRank 与 Embedding 模型的区别? 如何选择 ReRank 模型?
  3. NLP(八十三)RAG框架中的Rerank算法评估
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2024-05-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
全面提升 RAG 质量!Zilliz 携手智源集成 Sparse Embedding、Reranker 等多种 BGE 开源模型
近期,Zilliz 与智源研究院达成合作,将多种 BGE(BAAI General Embedding) 开源模型与开源向量数据库 Milvus 集成。得益于 Milvus 2.4 最新推出的 Sparse Vector(稀疏向量)和 Multi-vector(多向量)支持,开发者获得了多种选择,不仅有业界广泛采用的 Dense Embedding(稠密向量模型),还能使用 BGE 最新推出的 Sparse Embedding(稀疏检索模型)、Reranker(重排序) 模型。开发者可以轻松组合这些工具构建更加强大的召回方案,覆盖语义检索、全文检索和精排的能力。
Zilliz RDS
2024/04/30
1.3K0
全面提升 RAG 质量!Zilliz 携手智源集成 Sparse Embedding、Reranker 等多种 BGE 开源模型
人类情境检索数据集中的开源(免费)和付费模型比较,开源模型甚至可提供更高准确度
概述:DenserRetriever 是一个检索器平台,支持关键字搜索、向量搜索和重新排序,它为构建 RAG 应用程序提供了有效的解决方案。我们在 DenserRetriever 中对 Anthropic Contextual Retrieval 数据集进行了基准测试,并重现了令人印象深刻的结果!我们创新地集成了 Elasticsearch + 向量搜索,为大规模工业 RAG 部署提供了支持。 开源模型的准确性与付费模型相当甚至更好,提供了一种高经济效益的解决方案,而不会影响性能。告别高成本,迎接可扩展、高精度的 AI!
DenserAI_Chris
2024/10/12
1390
人类情境检索数据集中的开源(免费)和付费模型比较,开源模型甚至可提供更高准确度
基于LangChain-Chatchat实现的本地知识库的问答应用-快速上手(检索增强生成(RAG)大模型)
基于 ChatGLM 等大语言模型与 Langchain 等应用框架实现,开源、可离线部署的检索增强生成(RAG)大模型知识库项目。
汀丶人工智能
2024/05/07
1.6K0
基于LangChain-Chatchat实现的本地知识库的问答应用-快速上手(检索增强生成(RAG)大模型)
基于 Milvus + LlamaIndex 实现高级 RAG
随着大语言模型(LLM)技术的发展,RAG(Retrieval Augmented Generation)技术得到了广泛探讨和研究,越来越多的高级 RAG 检索方法也随之被人发现,相对于普通的 RAG 检索,高级 RAG 通过更深化的技术细节、更复杂的搜索策略,提供出了更准确、更相关、更丰富的信息检索结果。本文首先讨论这些技术,并基于 Milvus 给出一个实现案例。
Zilliz RDS
2024/05/31
8080
基于 Milvus + LlamaIndex 实现高级 RAG
向 AI Search 迈进,腾讯云 ES 自研 v-pack 向量增强插件揭秘!
2025 年 1 月,腾讯云 ES 团队上线了 Elasticsearch 8.16.1 AI 搜索增强版,此发布版本重点提升了向量搜索、混合搜索的能力,为 RAG 类的 AI Search 场景保驾护航。除了紧跟 ES 官方在向量搜索上的大幅优化动作外,腾讯云 ES 还在此版本上默认内置了一个全新的插件 —— v-pack 插件。v-pack 名字里的"v"是 vector 的意思,旨在提供更加丰富、强大的向量、混合搜索能力。本文将对该版本 v-pack 插件所包含的功能做大体的介绍。
Rassyan
2025/03/21
2940
向 AI Search 迈进,腾讯云 ES 自研 v-pack 向量增强插件揭秘!
基于LangChain-Chatchat实现的本地知识库的问答应用-快速上手(检索增强生成(RAG)大模型)
基于 ChatGLM 等大语言模型与 Langchain 等应用框架实现,开源、可离线部署的检索增强生成(RAG)大模型知识库项目。
汀丶人工智能
2024/05/06
1.1K0
基于LangChain-Chatchat实现的本地知识库的问答应用-快速上手(检索增强生成(RAG)大模型)
如何引入重排序提升RAG系统的效果?
之前介绍了在RAG系统中使用混合检索,而混合检索将不同的检索技术的优势,如向量检索适合语义模型匹配,而关键词检索适合精准匹配。将不同的优势结合互补单一检索的劣势,获得更好的召回结果。----
产品言语
2024/03/18
7760
如何引入重排序提升RAG系统的效果?
智源开放3亿条语义向量模型训练数据, BGE模型持续迭代更新
伴随着大模型开发和应用的火热发展,作为大模型核心基础组件的 Embedding 重要性愈发凸显。智源于一月前发布的开源可商用中英文语义向量模型 BGE(BAAI General Embedding)在社区收获颇高关注度,Hugging Face 累计下载量达到数十万。当前,BGE 快速迭代推出 1.5 版本并公布多项更新,其中,BGE 首次开源 3 亿条大规模训练数据,帮助社区训练同类模型,推动该领域技术发展。
机器之心
2023/09/19
1.6K0
智源开放3亿条语义向量模型训练数据, BGE模型持续迭代更新
LLM RAG系列
本文介绍了RAG以及RAG pipeline的整个流程,包括请求转换、路由和请求构造、索引和检索、生成和评估等,其中引用了大量有价值的论文。
charlieroro
2024/04/02
8180
LLM RAG系列
基于MindSpore NLP的LLM应用开发 - - 五点
1.什么是RAG:RAG(Retrieval-Augmented Generation)技术的原理与实践
用户10497140
2025/01/19
1020
揭秘「 B 站最火的 RAG 应用」是如何炼成的
近日,bilibili 知名科技 UP 主“Ele 实验室”发布了一个视频,标题为“当我开发出史料检索 RAG 应用,正史怪又该如何应对?” 。
Zilliz RDS
2024/03/02
5910
揭秘「 B 站最火的 RAG 应用」是如何炼成的
大模型相关技术-为什么需要rerank
在RAG(RetrievalAugmented Generation)中,embedding模型的向量检索可以帮助提高文本生成的效果,但仍然需要
西门呀在吹雪
2024/05/07
1.7K0
大模型相关技术-为什么需要rerank
智源发布全球最大中英文向量模型训练数据集!规模高达3亿文本对
9月15日,北京人工智能产业峰会暨中关村科学城科创大赛颁奖典礼现场,智源研究院发布面向中英文语义向量模型训练的大规模文本对数据集MTP(massive text pairs)。
新智元
2023/09/19
5851
智源发布全球最大中英文向量模型训练数据集!规模高达3亿文本对
Elasticsearch open Inference API 增加了对 Cohere Rerank 3 模型的支持
在最近的技术更新中,我们探索了一项新模型的集成,该模型旨在提升搜索结果的相关性和精确度。这一模型被称为“重排”(reranking),它通过对接现有的搜索系统提供的“前 n 个”搜索结果进行语义上的增强,从而改善了用户的搜索体验。
点火三周
2024/04/12
6540
Elasticsearch open Inference API 增加了对 Cohere Rerank 3 模型的支持
langchain中的Advanced RAG和ReRank技术一览
在人工智能盛起的当下,前有ChatGPT珠玉在前,后有Sora(聊聊火出圈的世界AI大模型——Sora)横空出世的消息铺天盖地,笔者作为一名资深数据科学从业者,也进行了很多的探索。最近梳理了一些关于Advanced RAG和ReRank相关的资料,整理到本文中和大家一起分享。
山行AI
2024/03/06
3.8K0
langchain中的Advanced RAG和ReRank技术一览
Anything本地知识库问答系统:基于检索增强生成式应用(RAG)两阶段检索、支持海量数据、跨语种问答
QAnything (Question and Answer based on Anything) 是致力于支持任意格式文件或数据库的本地知识库问答系统,可断网安装使用。
汀丶人工智能
2024/01/24
1.7K0
Anything本地知识库问答系统:基于检索增强生成式应用(RAG)两阶段检索、支持海量数据、跨语种问答
QAnything本地知识库问答系统:基于检索增强生成式应用(RAG)两阶段检索、支持海量数据、跨语种问答
QAnything (Question and Answer based on Anything) 是致力于支持任意格式文件或数据库的本地知识库问答系统,可断网安装使用。
汀丶人工智能
2024/01/22
2K0
QAnything本地知识库问答系统:基于检索增强生成式应用(RAG)两阶段检索、支持海量数据、跨语种问答
重磅!Zilliz 与智源研究院联合推出自动化多样性信息检索评测基准 AIR-Bench
Github:https://github.com/AIR-Bench/AIR-Bench
Zilliz RDS
2024/05/31
1900
重磅!Zilliz 与智源研究院联合推出自动化多样性信息检索评测基准 AIR-Bench
七种RAG架构cheat sheet!
RAG 即检索增强生成(Retrieval - Augmented Generation ),是一种结合检索技术和生成模型的人工智能方法。
codetrend
2025/01/24
3080
七种RAG架构cheat sheet!
多维度信息捕捉:利用向量、稀疏向量、全文搜索及张量实现RAG的极致性能
开源 AI 原生数据库 Infinity 0.2 release 正式发布,提供了 2 种新数据类型:稀疏向量Sparse Vector 和 张量Tensor,在此前的全文搜索和向量搜索之外, Infinity 提供了更多的召回手段,如下图所示,用户可以采用任意 N 路召回(N ≥ 2)进行混合搜索,这是目前功能最强大的 RAG 专用数据库。
汀丶人工智能
2025/04/22
1110
多维度信息捕捉:利用向量、稀疏向量、全文搜索及张量实现RAG的极致性能
推荐阅读
全面提升 RAG 质量!Zilliz 携手智源集成 Sparse Embedding、Reranker 等多种 BGE 开源模型
1.3K0
人类情境检索数据集中的开源(免费)和付费模型比较,开源模型甚至可提供更高准确度
1390
基于LangChain-Chatchat实现的本地知识库的问答应用-快速上手(检索增强生成(RAG)大模型)
1.6K0
基于 Milvus + LlamaIndex 实现高级 RAG
8080
向 AI Search 迈进,腾讯云 ES 自研 v-pack 向量增强插件揭秘!
2940
基于LangChain-Chatchat实现的本地知识库的问答应用-快速上手(检索增强生成(RAG)大模型)
1.1K0
如何引入重排序提升RAG系统的效果?
7760
智源开放3亿条语义向量模型训练数据, BGE模型持续迭代更新
1.6K0
LLM RAG系列
8180
基于MindSpore NLP的LLM应用开发 - - 五点
1020
揭秘「 B 站最火的 RAG 应用」是如何炼成的
5910
大模型相关技术-为什么需要rerank
1.7K0
智源发布全球最大中英文向量模型训练数据集!规模高达3亿文本对
5851
Elasticsearch open Inference API 增加了对 Cohere Rerank 3 模型的支持
6540
langchain中的Advanced RAG和ReRank技术一览
3.8K0
Anything本地知识库问答系统:基于检索增强生成式应用(RAG)两阶段检索、支持海量数据、跨语种问答
1.7K0
QAnything本地知识库问答系统:基于检索增强生成式应用(RAG)两阶段检索、支持海量数据、跨语种问答
2K0
重磅!Zilliz 与智源研究院联合推出自动化多样性信息检索评测基准 AIR-Bench
1900
七种RAG架构cheat sheet!
3080
多维度信息捕捉:利用向量、稀疏向量、全文搜索及张量实现RAG的极致性能
1110
相关推荐
全面提升 RAG 质量!Zilliz 携手智源集成 Sparse Embedding、Reranker 等多种 BGE 开源模型
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档