首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >RAG不是“外挂提示词”,而是让大模型真正懂你业务的大脑外

RAG不是“外挂提示词”,而是让大模型真正懂你业务的大脑外

原创
作者头像
Echo_Wish
发布2025-10-30 21:14:58
发布2025-10-30 21:14:58
5800
代码可运行
举报
文章被收录于专栏:Python项目实战Python项目实战
运行总次数:0
代码可运行

RAG不是“外挂提示词”,而是让大模型真正懂你业务的大脑外挂

大家好,我是你们熟悉的 Echo_Wish

今天咱聊一个最近特别火、但很多人还没整明白的技术——RAG(Retrieval Augmented Generation)检索增强生成

说实话,大模型很强,但你让它回答:

  • “我们公司采购流程是什么?”
  • “我们内部产品架构是怎么分层的?”
  • “客户A去年发生了哪些售后工单?”

它基本会胡编乱造——因为它根本不知道你们公司的数据

RAG 技术的作用,就是把你企业的数据接到大模型的“脑子里”。让大模型不仅聪明,而且懂业务。


一、先来一句人话总结什么是 RAG

RAG = 检索 + 生成 “模型先去找内容,再根据找到的内容回答问题。”

它不是让模型记住数据,而是让模型用的时候再去查

就像你平时写报告不是全靠脑子,而是:

  • 先去翻文档/群聊天/数据库
  • 再组织内容写报告

RAG做的事情和你一样,只是自动化了。


二、为什么大模型离不开 RAG?

1)大模型不是记忆体,它是“语言理解器”

它其实记不了你公司的文档、知识库、业务流程。

2)企业数据变化快,模型没法天天重新训练

重新训练一次模型成本可能上百万,还得排期。

3)模型可能会“一本正经地胡说八道”

因为它会 “猜”

而 RAG 的目标就是

让模型从“猜答案” → “查答案”


三、RAG 的工作流程长这样(超级简单)

代码语言:txt
复制
用户提问 → 向量搜索相关资料 → 取出最相关的几段文本
↓
把这些文本一起喂给大模型
↓
大模型根据真实内容生成回答

一句话:大模型不再瞎说,因为它每句话都得基于证据。

下面我们画一张通俗易懂的小图:

代码语言:txt
复制
     ┌────────────┐           ┌──────────────┐
     │ 用户问题    │           │ 企业文档知识库 │
     └─────┬──────┘           └──────┬───────┘
           │                          │
           │ 把文本变向量              │ 文档向量化存储
           ▼                          ▼
      ┌─────────┐   向量相似度   ┌──────────────┐
      │ 问题向量 │ <------------> │ 文档向量索引库 │
      └─────┬───┘                 └──────┬───────┘
           │                              
           │ 找到最相关的文本片段        
           ▼
     ┌────────────────────┐
     │ LLM(大模型)       │ ← 真实业务内容增强输入
     └────────────────────┘
                   │
                   ▼
           ✅ 输出靠谱业务答案

四、来点实操:用 Python 实现一个最小 RAG 原型

环境要求:

  • Python
  • sentence-transformers(做向量化)
  • faiss(做向量搜索)
  • 任意大模型接口(以OpenAI格式为例)
代码语言:python
代码运行次数:0
运行
复制
from sentence_transformers import SentenceTransformer
import faiss
import numpy as np
from openai import OpenAI

# 1. 准备企业文档
docs = [
    "我们公司的采购流程包括:需求提出 → 上级审批 → 采购比价 → 合同签署 → 入库验收。",
    "售后服务响应时效为:高优先级4小时,低优先级24小时。",
    "产品架构分为三层:前端展示层、业务逻辑层、数据存储层。"
]

# 2. 文本向量化
model = SentenceTransformer("all-MiniLM-L6-v2")
doc_embeddings = model.encode(docs)

# 3. 构建向量索引库
index = faiss.IndexFlatL2(doc_embeddings.shape[1])
index.add(doc_embeddings)

# 4. 用户提问
query = "请解释一下我们公司的采购流程"
query_vec = model.encode([query])

# 5. 检索最相关文档
D, I = index.search(query_vec, 1)
retrieved_text = docs[I[0][0]]

# 6. 调用大模型生成回答
client = OpenAI()
prompt = f"参考以下内容回答问题:\n\n{retrieved_text}\n\n问题:{query}\n回答:"

response = client.chat.completions.create(
    model="gpt-5",
    messages=[{"role": "user", "content": prompt}]
)

print(response.choices[0].message.content)

你会发现:

不需要训练模型

不需要微调

不需要让模型“记住”公司文档

只需要:查 → 喂 → 答

简单、直接、有效。


五、RAG 在企业中的现实作用

场景

能带来哪些真实提升

客服知识库自动问答

客服响应一致、效率高

售后工单辅助处理

新人不用多年经验也能处理复杂问题

内部流程规范查询

员工不用到处问,“文档里都有”真的可用了

研发文档助理

找接口、查依赖、定位错误更快

一句话:

RAG能让“文档真正成为生产力”。


六、但别把 RAG 想得过于神圣,它也有坑

问题

解决方案

文本切片不合理会检索错内容

需要分割策略(chunking)优化

文档不更新会回答过时信息

必须建立 文档维护流程

向量搜索质量受模型影响

选好 embedding 模型比选大模型更重要

真正做落地时要记住:

RAG不是一次接通,是一个持续运营体系。


七、总结一句话

大模型给了我们思考能力,但 RAG 给了它记忆和理解业务的能力。

没有 RAG:模型是“懂道理,但不了解你家情况的哲学家”

有了 RAG:模型变成“既懂道理又了解你公司业务的老同事”

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • RAG不是“外挂提示词”,而是让大模型真正懂你业务的大脑外挂
    • 一、先来一句人话总结什么是 RAG
    • 二、为什么大模型离不开 RAG?
      • 1)大模型不是记忆体,它是“语言理解器”
      • 2)企业数据变化快,模型没法天天重新训练
      • 3)模型可能会“一本正经地胡说八道”
    • 三、RAG 的工作流程长这样(超级简单)
    • 四、来点实操:用 Python 实现一个最小 RAG 原型
    • 五、RAG 在企业中的现实作用
    • 六、但别把 RAG 想得过于神圣,它也有坑
    • 七、总结一句话
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档