现在,我们很容易构建一个基于检索增强生成(RAG)的应用,但将其投入生产却非常困难,因为RAG的性能很难达到令人满意的状态。
我们知道RAG中两个重要的组件:
在评估RAG时,我们需要分别评估两个组件以及它们的整体性能,以了解RAG是否仍然需要改进,以及需要在哪里改进。此外,为了评估RAG应用程序的性能是否正在改善,我们需要进行定量评估。为此,我们需要两个评估要素:评估指标和评估数据集。
当前,确定正确的评估指标并收集良好的验证数据是一个活跃的研究领域。涌现出各种用于RAG评估框架的方法,例如RAG Triad of metrics,ROUGE,ARES,BLEU和RAGAs。本文将重点介绍如何使用RAGAs评估RAG系统。
什么是RAGAs
RAGAs(检索增强生成评估)是一个框架,提供了必要的组成部分,以帮助我们在组件粒度评估RAG。
评估数据
关于RAGAs的有趣之处在于,它最初是一个“无参考”评估框架。这意味着,不必依赖于人工注释的真实标签评估数据,RAGAs在幕后利用LLM进行评估。
为评估RAG,RAGAs需要以下信息:
利用LLM进行无参考评估是一个活跃的研究课题。虽然尽可能少地使用人工注释的数据使其成为一种更便宜和更快速的评估方法,但关于其缺点,如偏见等,仍有一些讨论。一些论文中也展示了一些令人激动的结果。
评估指标
RAGAs提供了一些指标,方便以端到端方式对于RAG进行评估。
在组件级别上,RAGAs提供了评估检索器(context_relevancy和context_recall)和生成器(faithfulness和answer_relevancy)的指标:
RAGAs还提供了端到端评估RAG管道的指标,例如答案语义相似性和答案正确性。本文重点介绍了组件级别指标。
使用RAGAs评估RAG应用
前提条件
安装所需的Python 包
#!pip install langchain openai pymilvus ragas
另外,引入OpenAI的秘钥。
OPENAI_API_KEY="<YOUR_OPENAI_API_KEY>"
设置RAG应用程序
首先,通过加载和分块文档来准备数据。
import requests
from langchain.document_loaders import TextLoader
from langchain.text_splitter import CharacterTextSplitter
url = "https://publicdataset.zillizcloud.com/milvus_doc.md"
res = requests.get(url)
with open("milvus_doc.md", "w") as f:
f.write(res.text)
# Load the data
loader = TextLoader('./milvus_doc.md')
documents = loader.load()
# Chunk the data
text_splitter = CharacterTextSplitter(chunk_size=60, chunk_overlap=10)
chunks = text_splitter.split_documents(documents)
接下来,使用OpenAI Embedding为每个块生成Embedding,并将它们存储在向量数据库Milvus中。
from langchain.embeddings import OpenAIEmbeddings
from langchain.vectorstores.milvus import Milvus
vectorstore = Milvus.from_documents(
chunks,
embedding=OpenAIEmbeddings(),
connection_args={"host": "127.0.0.1", "port": "19530"},
)
retriever = vectorstore.as_retriever(search_kwargs={"k": 3})
最后,设置一个提示模板和OpenAI,并将它们与检索器组件组合成一个RAG。
from langchain.chat_models import ChatOpenAI
from langchain.prompts import ChatPromptTemplate
from langchain.schema.runnable import RunnablePassthrough
from langchain.schema.output_parser import StrOutputParser
# Define LLM
llm = ChatOpenAI(model_name="gpt-3.5-turbo", temperature=0)
# Define prompt template
template = """You are an assistant for question-answering tasks.
Use the following pieces of retrieved context to answer the question.
If you don't know the answer, just say that you don't know.
Use two sentences maximum and keep the answer concise.
Question: {question}
Context: {context}
Answer:
"""
prompt = ChatPromptTemplate.from_template(template)
# Setup RAG pipeline
rag_chain = (
{"context": retriever, "question": RunnablePassthrough()}
| prompt
| llm
| StrOutputParser()
)
准备评估数据
由于RAGAs目的是成为一个无参考的评估框架,评估数据集的准备要求比较少。我们需要先准备配对的问题和ground_truths,然后可以通过推理来准备其余信息,如下所示:
from datasets import Dataset
questions = ["Can user delete milvus entities through non-primary key filtering?"
]
ground_truths = [["Milvus supports deleting entities by primary key or complex boolean expressions"]]
answers = []
contexts = []
# Inference
for query in questions:
answers.append(rag_chain.invoke(query))
contexts.append([docs.page_content for docs in retriever.get_relevant_documents(query)])
data = {
"question": questions,
"answer": answers,
"contexts": contexts,
"ground_truths": ground_truths
}
# Convert dict to dataset
dataset = Dataset.from_dict(data)
如果我们对context_recall指标不感兴趣,则不需要提供ground_truths信息。此时,我们只需准备问题即可。
评估RAG应用程序
首先,从ragas.metrics中导入我们想要使用的所有指标。然后使用evaluate()函数,简单地传入相关的指标和准备好的数据集。
from ragas import evaluate
from ragas.metrics import (
faithfulness,
answer_relevancy,
context_recall,
context_precision,
)
result = evaluate(
dataset = dataset,
metrics=[
context_precision,
context_recall,
faithfulness,
answer_relevancy,
],
)
df = result.to_pandas()
我们可以看到结果RAGAs分数:
由此,我们可以得出以下结论:
总结
构建一个RAG应用程序很容易,但将其性能投入生产使用则很困难。像机器学习项目一样,我们需要使用验证数据集和评估指标评估RAG应用的性能。但是,由于RAG应用由多个组件组成,这些组件必须分别和组合地进行评估,因此我们需要一组评估指标。本文介绍了RAGAs评估框架。该框架提出了四个评估指标 context_relevancy、context_recall、faithfulness和answer_relevancy,它们共同组成了RAGAs分数。此外,RAGAs还利用大模型进行无参考评估以节省成本。
作者:臧伟
游戏服务器工程师,Milvus 北辰使者