在开发基于RAG的AI应用时,很多开发者都会遇到这样的困境:检索结果不够精准,复杂问题处理效果差,多个检索源合并后效果反而下降。今天我们就来系统解析六大RAG优化策略,帮你构建更强大的智能问答系统。
深入浅出解析RAG核心优化技术,从理论到实践一站式掌握
在 RAG 开发的 6 个阶段中,不同的阶段拥有不同的优化策略,需要针对不同的应用,进行特定的优化,目前市面上常见的优化方案有:问题转换、多路召回、混合检索、搜索重排、动态路由、图查询、问题重建、自检索等数十种优化策略,每种策略所在的阶段并不一致,效果也有差异,并且相互影响。并且 RAG 优化和 LangChain 并没有关系,无论使用任何框架、任何编程语言,进行 RAG 开发时,掌握优化的思路才是最重要的!
将对应的优化策略整理到 RAG 运行流程中,优化策略与开发阶段对应如下:

核心价值:通过生成多个相关问题,从不同角度理解用户查询,提高检索覆盖率。
技术原理:
from langchain.retrievers import MultiQueryRetriever
from langchain_openai import ChatOpenAI
# 初始化多查询检索器
multi_retriever = MultiQueryRetriever.from_llm(
retriever=base_retriever, # 基础检索器
llm=ChatOpenAI(model="gpt-3.5-turbo", temperature=0),
prompt=ChatPromptTemplate.from_template(
"请生成以下问题的3个不同版本:{question}"
)
)
# 执行检索
docs = multi_retriever.invoke("LLMOps应用配置的最佳实践是什么?")技术突破:在Multi-Query基础上引入RRF(倒数排名融合)算法,解决简单合并的局限性。
算法核心:
RRF_score(d) = ∑(1 / (k + rank(d)))其中k=60为调节参数,rank(d)为文档在子集中的排名。
实现方案:
class RAGFusionRetriever(MultiQueryRetriever):
def unique_union(self, documents: List[List[Document]]) -> List[Document]:
fused_scores = {}
# 计算每个文档的RRF得分
for docs in documents:
for rank, doc in enumerate(docs):
doc_str = dumps(doc)
fused_scores[doc_str] = fused_scores.get(doc_str, 0) + 1/(rank + 60)
# 按得分排序返回Top-K
reranked = sorted(fused_scores.items(), key=lambda x: x[1], reverse=True)
return [loads(doc) for doc, _ in reranked[:self.k]]优势:综合考虑文档在不同查询结果中的排名位置,避免高价值文档被低效合并。
设计理念:将复杂问题系统性地拆解为可独立处理的子问题,分别检索后再综合回答。
典型流程:
技术实现:
# 问题分解提示模板
decomposition_prompt = ChatPromptTemplate.from_template("""
请将以下复杂问题分解为3个独立的子问题:
原始问题:{question}
子问题列表:""")
# 构建分解链
decomposition_chain = (
{"question": RunnablePassthrough()}
| decomposition_prompt
| ChatOpenAI(temperature=0)
| StrOutputParser()
| (lambda x: x.strip().split("\n"))
)适用场景:多步骤、多维度的大型复杂问题处理。
创新思路:让模型先退一步思考更本质的问题,再结合具体问题生成答案。
实际案例:
代码实现:
class StepBackRetriever(BaseRetriever):
def _get_relevant_documents(self, query: str) -> List[Document]:
# 生成回退问题
step_back_prompt = """请为以下问题生成一个更本质的回退问题:{query}"""
step_back_question = llm.invoke(step_back_prompt.format(query=query))
# 使用回退问题检索
return self.retriever.get_relevant_documents(step_back_question)技术价值:提升模型对抽象概念和基本原理的理解能力,避免陷入细节陷阱。
架构优势:结合稀疏检索(BM25)和密集检索(向量搜索)的双重优势。
实现方案:
from langchain.retrievers import EnsembleRetriever
from langchain_community.retrievers import BM25Retriever
# 初始化两种检索器
bm25_retriever = BM25Retriever.from_documents(documents)
vector_retriever = vectorstore.as_retriever()
# 构建混合检索器
ensemble_retriever = EnsembleRetriever(
retrievers=[bm25_retriever, vector_retriever],
weights=[0.4, 0.6] # 可调整权重
)技术特点:
方法论:通过提供少量示例,引导模型更好地理解任务要求和输出格式。
examples = [
{"input": "计算2+2", "output": "4"},
{"input": "计算15*3", "output": "45"}
]
few_shot_prompt = FewShotChatMessagePromptTemplate(
example_prompt=example_prompt,
examples=examples
)
final_prompt = ChatPromptTemplate.from_messages([
("system", "你是一个数学计算助手"),
few_shot_prompt,
("human", "{question}")
])应用价值:显著降低模型输出偏差,提高回答的准确性和一致性。
根据实际业务需求选择合适的优化策略:
场景特征 | 推荐策略 | 复杂度 |
|---|---|---|
问题表述模糊、多义 | 多查询重写 | 低 |
需要精准排序 | RAG融合 | 中 |
复杂多步骤问题 | 问题分解 | 高 |
抽象概念理解 | Step-Back | 中 |
多样查询类型 | 混合检索 | 中 |
输出格式严格要求 | Few-Shot提示 | 低 |
RAG优化是一个系统工程,需要根据具体业务场景灵活选择和组合策略。本文介绍的六大策略涵盖了从查询理解、检索优化到结果处理的全流程,希望能为你的RAG应用开发提供实用参考。