
> 一篇看懂:检索前如何猜中你的潜台词,检索后如何踢走无用信息,把 LLM 回答准确率提升 42%!
用户真实场景 | AI 典型翻车 |
|---|---|
“Mac 怎么装字体?” | 第一步:打开 Windows 设置…… |
“大模型温度怎么调?” | 温度=0.7,建议穿短袖(?) |
“研究生自命题怎么管?” | 返回一篇 2012 年的考研广告 |
根因 ≠ LLM 不够强,而是 RAG(Retrieval-Augmented Generation) 的两头断线:
技巧 | 1 行代码能落地的例子 | 效果 |
|---|---|---|
用户画像 |
| 召回切片精度↑28% |
反问用户 | “您是要‘双击安装’还是‘命令行批量装’?”→ 点选即扩写 | 后续纠错轮次↓60% |
问题扩写 | 原句:temperature → 扩写:LLM temperature 参数 0-1 含义 代码示例 如何调 | 召回含代码片段↑35% |
一句话总结:先当“知心姐姐”猜意图,再当“严师”定边界,别让 LLM 在迷雾里开车。
[macOS, 字体, 安装] 痛点:切片 512 token,常把“步骤 3”切成两半,LLM 只见“打开字体册”不见“拖进去”。
方案:召回命中切片后,左右各扩 1 个切片(窗口=3),保持上下文连贯。
实验:在 2 万份考研政策文档上,QA-F1↑11.6%。
类型 | 举例 | 过滤规则 |
|---|---|---|
时间水货 | 2012 年字体安装贴 | 硬规则:>3 年且未标注“长期有效”→丢弃 |
主题漂移 | Win10 字体安装 | 交叉编码器 ReRank 分数<0.27→丢弃 |
SEO 农场 | 全文重复“字体下载” | 文本哈希去重,余弦>0.95→丢弃 |
结果:20 条召回→6 条高相关,LLM 幻觉率↓42%
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。