首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >别再被“答非所问”气到!RAG 系统 4 步「意图还原」黑科技,让 AI 答得更准、更快、更聪明

别再被“答非所问”气到!RAG 系统 4 步「意图还原」黑科技,让 AI 答得更准、更快、更聪明

原创
作者头像
云帆沧海
发布2025-10-09 13:20:14
发布2025-10-09 13:20:14
2210
举报
文章被收录于专栏:人工智能人工智能

> 一篇看懂:检索前如何猜中你的潜台词,检索后如何踢走无用信息,把 LLM 回答准确率提升 42%!


🌪 先吐槽:为什么 AI 总在你急需答案时“已读乱回”?

用户真实场景

AI 典型翻车

“Mac 怎么装字体?”

第一步:打开 Windows 设置……

“大模型温度怎么调?”

温度=0.7,建议穿短袖(?)

“研究生自命题怎么管?”

返回一篇 2012 年的考研广告

根因 ≠ LLM 不够强,而是 RAG(Retrieval-Augmented Generation) 的两头断线:

  1. 检索前:用户一句话=拼图 1 块,系统读不懂“潜台词”。
  2. 检索后:召回 20 条切片,15 条灌水,LLM 被带偏。

🧩 第 0 步:用户画像×反问×扩写,把“碎片拼图”补成 4K 高清

技巧

1 行代码能落地的例子

效果

用户画像

if 用户历史阅读≈"前端" → 补全“Mac 字体安装”为“前端开发者在 macOS 安装 .woff2 字体并压缩”

召回切片精度↑28%

反问用户

“您是要‘双击安装’还是‘命令行批量装’?”→ 点选即扩写

后续纠错轮次↓60%

问题扩写

原句:temperature → 扩写:LLM temperature 参数 0-1 含义 代码示例 如何调

召回含代码片段↑35%

一句话总结:先当“知心姐姐”猜意图,再当“严师”定边界,别让 LLM 在迷雾里开车。


🔍 第 1 步:双路检索——向量语义+标签过滤,先把“大圈”切成“小圈”

  1. 提取标签(0 成本)undefined用 tiny-bert+crf 做序列标注,10 ms 抽出主题标签:[macOS, 字体, 安装]
  2. 标签倒排过滤,百万级文档→千级候选
  3. 向量语义再精排,千级→百级
  4. 收益:检索耗时从 1.2 s→0.18 s,切片灌水率↓48%

🪟 第 2 步:滑动窗口检索,拒绝“断章取义”

痛点:切片 512 token,常把“步骤 3”切成两半,LLM 只见“打开字体册”不见“拖进去”。

方案:召回命中切片后,左右各扩 1 个切片(窗口=3),保持上下文连贯。

实验:在 2 万份考研政策文档上,QA-F1↑11.6%


🚫 第 3 步:ReRank+规则过滤,把“看似相关”的水货踢出去

类型

举例

过滤规则

时间水货

2012 年字体安装贴

硬规则:>3 年且未标注“长期有效”→丢弃

主题漂移

Win10 字体安装

交叉编码器 ReRank 分数<0.27→丢弃

SEO 农场

全文重复“字体下载”

文本哈希去重,余弦>0.95→丢弃

结果:20 条召回→6 条高相关,LLM 幻觉率↓42%


🎯 第 4 步:重生成+引用回链,给用户“答案+证据”双保险

  1. 把 6 条高相关切片按出现顺序编号,送入 LLM
  2. 使用结构化 prompt 强制引用:

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 🌪 先吐槽:为什么 AI 总在你急需答案时“已读乱回”?
  • 🧩 第 0 步:用户画像×反问×扩写,把“碎片拼图”补成 4K 高清
  • 🔍 第 1 步:双路检索——向量语义+标签过滤,先把“大圈”切成“小圈”
  • 🪟 第 2 步:滑动窗口检索,拒绝“断章取义”
  • 🚫 第 3 步:ReRank+规则过滤,把“看似相关”的水货踢出去
  • 🎯 第 4 步:重生成+引用回链,给用户“答案+证据”双保险
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档