Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Paper Digest | 在图上思考:基于知识图谱的深度且负责的大语言模型推理

Paper Digest | 在图上思考:基于知识图谱的深度且负责的大语言模型推理

原创
作者头像
可信AI进展
修改于 2024-03-06 12:27:11
修改于 2024-03-06 12:27:11
2510
举报
文章被收录于专栏:Paper DigestPaper Digest

笔记整理:孙硕硕,东南大学硕士,研究方向为自然语言处理 链接:https://arxiv.org/abs/2307.07697

Part.1 动机

本文的动机是大型语言模型在各种任务中取得了较大的进步,但它们往往难以完成复杂的推理,并且在知识可追溯性、及时性和准确性等至关重要的情况下表现出较差的性能。

为了解决这些限制,作者提出了 Think-on-Graph (ToG),这是一个新颖的框架,它利用知识图谱来增强 LLM 的深度和负责任的推理能力。通过使用 ToG,可以识别与给定问题相关的实体,并进行探索和推理以从外部知识数据库中检索相关三元组。

这个迭代过程生成多个推理路径,由顺序连接的三元组组成,直到收集到足够的信息以回答问题或达到最大深度。通过对复杂的多跳推理问答任务的实验,作者证明了 ToG 优于现有方法,有效地解决了 LLM 的上述限制,而不会带来额外的训练成本。

Part.2 贡献

本文的主要贡献包括:

1)提出了一种新的框架 ToG,该框架集成了思维推理和知识图谱链来回答知识密集型问题。

2)ToG框架从类人迭代信息检索中汲取灵感,生成多个高概率推理路径。

3) 实验结果表明,ToG在不增加训练成本的情况下显著增强了现有的提示方法,缓解了LLM中的幻觉问题,展示了将LLM与知识图谱集成用于推理任务的潜力。

Part.3 方法

本文引入了 ToG,这是一种用于图搜索的新范式,它提示 LLM 根据给定的查询中的实体探索多种可能的推理路径。ToG 不断维护问题 x 的 topN 推理路径 p,每条路径由几个三元组 Ti 组成。ToG 搜索的整个过程可以分为以下三个步骤:实体获取、探索和推理。根据中间步骤的组合,本文提出了两种方法:基于实体的 ToG 和基于关系的 ToG。

基于实体的 ToG

ToG 首先提示 LLM 提取问题中的实体并获得每个实体对问题的贡献分数。这与之前将问题分解为子问题的方法不同,ToG 更强调实体。在 ToG 框架中,探索阶段至关重要,因为它旨在识别最相关的 top-N 三元组作为给定问题的推理路径中的中间步骤,基于广度优先搜索。这一阶段包括两个不同的阶段:关系探索和实体探索。作者采用两个步骤来生成当前搜索迭代、搜索和修剪的关系候选集,LLM自动完成这个过程。关系探索阶段首先搜索与当前实体集中每个实体相关联的所有关系。搜索过程可以通过执行两个简单的预定义形式查询轻松完成,这使得 ToG 在没有任何训练成本的情况下很好地适应不同的 KB。一旦获得了候选集和关系搜索,就会对查询贡献较低的边进行剪枝,只保留前 N 个边作为当前探索迭代的终止。可以利用LLM根据给定的问题基于当前实体剪枝,得到与当前关系集,即最相关的top-N关系及其对应的分数。与关系探索类似,实体探索仍然使用 LLM 自动执行的两个步骤,即搜索和修剪。在执行上述两种探索后,可以构建一个综合推理路径,其中每个中间步骤对应于一个顺序相关的三元组。在通过探索过程获得当前推理路径 P 后,提示 LLM 评估当前推理路径是否足以推断答案。如果评估产生积极的结果,对得分进行归一化并提示 LLM 使用以问题为输入的推理路径生成答案。相反,如果评估产生负面结果,重复探索和推理步骤,直到评估为正或达到最大搜索深度。

基于关系的 ToG

以往的知识库问答方法,特别是那些利用语义解析的方法,主要依赖于基于关系的信息来生成正式查询。实体的文字信息并不总是完整的,尤其是在对缺少实体“名称”一部分的不完整知识图谱执行查询时,这可能会误导推理。因此,本文提出了基于关系的 ToG,它消除了探索过程中搜索中间实体的需要。它利用 LLM 的推理能力为推理过程中的每个链使用不同的候选集来生成答案。这种方法提供了两个关键好处:1)它消除了对探索实体耗时的过程的需求,从而降低了整体方法成本并显著提高了推理速度。2) 特别是在不完整的 KB 数据集下,这种方法主要关注关系的语义信息,导致更高的准确性。值得注意的是,这两种方法都遵循类似的管道,但在中间步骤中扩展推理链方面有所不同。与基于实体的 ToG 相比,基于关系的 ToG 只涉及关系的探索和推理,其中推理阶段保持不变。两种方法之间最显著的区别是以下两种方法:实体集合中采样的样本是独立同分布的,通过计算几个样本的平均值,可以推导出实体集内关系的平均值。由于中间步骤不涉及任何实体,需要根据关系、历史路径和实体集合获得候选集,其中实体集是固定的。因此,候选实体集作为推理路径中的终端节点。具体算法步骤如表1所示。

图1 算法步骤
图1 算法步骤
图2 本文方法的总体框架
图2 本文方法的总体框架

Part.4 实验

本文在知识密集型任务上评估提出的方法,问题需要特定的知识来回答,LLM 在这种任务上经常会遇到幻觉问题。Complex Web Questions (CWQ)是一个用于回答需要对多个三元组进行推理的复杂问题的数据集,它包含大量自然语言中的复杂问题。本文前人工作相同,使用完全匹配精度作为评估指标。对于 CWQ 数据集,作者随机选择 1,000 个样本作为测试集。然后排除了无法成功执行 SPARQL 查询和链接到缺乏“名称”关系答案的实体的样本。最终实验保留了 995 个样本。主要知识库来源是 Freebase。本文将探索、推理和答案生成的温度设置为 0,以实现可重复性,并将生成的最大token长度设置为 256。本文使用了 ChatGPT API 执行上述过程。对于基线模型,作者使用标准提示 (IO 提示) 和思维链提示 (CoT),其中包含 6 个上下文示例和“逐步”推理链。ToG 在 CWQ 数据集上的性能如表 2 所示。很明显,在仅保留三个推理路径的实验条件下,每条路径的最大长度为 3,ToG(E) 在 CWQ 上的表现优于 CoT 14.86%,ToG(R) 为 17.47%。

表1 CWQ 数据集的性能。ToG(E) 和 ToG(R) 分别表示基于实体的 ToG 和基于关系的 ToG
表1 CWQ 数据集的性能。ToG(E) 和 ToG(R) 分别表示基于实体的 ToG 和基于关系的 ToG

Part.5 总结

在这项工作中,作者提出了一种新的框架 ToG,该框架集成了思维推理和知识图谱链来回答知识密集型问题。ToG框架从类人迭代信息检索中汲取灵感,生成多个高概率推理路径。实验结果表明,ToG在不增加训练成本的情况下显著增强了现有的提示方法,缓解了LLM中的幻觉问题,展示了将LLM与知识图谱集成用于推理任务的潜力。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
知识图谱增强的KG-RAG框架
昨天我们聊到KG在RAG中如何发挥作用,今天我们来看一个具体的例子。 我们找到一篇论文: https://arxiv.org/abs/2311.17330 ,论文的研究人员开发了一种名为知识图谱增强的提示生成(KG-RAG)框架(https://github.com/BaranziniLab/KG_RAG),该框架利用生物医学知识图谱SPOKE与大型语言模型相结合,有效的提升了LLM在医疗领域的问答效果。
JadePeng
2024/04/12
1.6K0
知识图谱增强的KG-RAG框架
ACL 2024 | 构建超关系知识图谱(KG),增强大模型多跳/Multi-hop QA问答能力!
对于非结构化文本,大模型 (LLM) 比较擅长回答简单(单跳)问题。然而,随着问题的复杂性增加,LLM 的性能会下降。本文作者认为其主要原因是,大模型在理解复杂问题和从原始文本中筛选、聚合非结构化信息过程中出现了性能问题。
ShuYini
2024/06/19
1.6K0
ACL 2024 | 构建超关系知识图谱(KG),增强大模型多跳/Multi-hop QA问答能力!
知识图谱嵌入与因果推理的结合
知识图谱通过节点(实体)和边(关系)来表示现实世界中的信息,但如何将这些信息转化为可进行推理和决策的形式,仍然是一个挑战。
数字扫地僧
2024/09/22
7650
知识图谱嵌入与因果推理的结合
ChatGPT性能最多提升214%,刷新7个榜单!IDEA、港科大广州等提出ToG思维图谱
如何弥补这部分缺陷,使更多行业能快速加入对新一轮生产力变革的探索,是当下AI研究的重要课题,其中,大模型(LLM)与知识图谱(KG)的融合来弥补前者的能力短板,是颇受关注的研究方向。
新智元
2023/11/27
2810
ChatGPT性能最多提升214%,刷新7个榜单!IDEA、港科大广州等提出ToG思维图谱
图技术在 LLM 下的应用:知识图谱驱动的大语言模型 Llama Index
LLM 如火如荼地发展了大半年,各类大模型和相关框架也逐步成型,可被大家应用到业务实际中。在这个过程中,我们可能会遇到一类问题是:现有的哪些数据,如何更好地与 LLM 对接上。像是大家都在用的知识图谱,现在的图谱该如何借助大模型,发挥更大的价值呢?
NebulaGraph
2023/07/25
1K0
图技术在 LLM 下的应用:知识图谱驱动的大语言模型 Llama Index
最新《知识图谱:机遇与挑战》综述,详述知识图谱最新进展
随着人工智能和大数据的爆炸式增长,如何合理地组织和表示海量的知识变得至关重要。知识图谱作为图数据,可以用来积累和传递现实世界的知识。知识图谱可以有效地表示复杂信息,因此,近年来迅速受到学术界和工业界的关注。为了加深对知识图谱的理解,本文对该领域进行了系统综述。
一点人工一点智能
2023/03/29
5.2K0
最新《知识图谱:机遇与挑战》综述,详述知识图谱最新进展
K-BERT | 基于知识图谱的语言表示模型
今天给大家介绍发表在AAAI 2020上的文章“K-BERT: Enabling Language Representation with Knowledge Graph”,该工作由清华大学Weijie Liu等人完成。文章提出将知识图谱与预训练语言表示模型BERT相结合,使机器在阅读特定领域文本时,能够利用相关领域知识进行推理。
DrugAI
2021/02/01
1.6K0
K-BERT | 基于知识图谱的语言表示模型
知识图谱与大模型双向驱动的关键问题和应用探索
知识图谱和大型语言模型都是用来表示和处理知识的手段。大模型补足了理解语言的能力,知识图谱则丰富了表示知识的方式,两者的深度结合必将为人工智能提供更为全面、可靠、可控的知识处理方法。在这一背景下,OpenKG组织新KG视点系列文章——“大模型专辑”,不定期邀请业内专家对知识图谱与大模型的融合之道展开深入探讨。本期邀请到蚂蚁集团知识引擎负责人梁磊分享“SPG与LLM双向驱动的关键问题和应用探索”,本文整理自梁磊老师在2023年10月26日沈阳举办的CNCC知识图谱论坛上的分享。
可信AI进展
2024/01/30
1.5K0
知识图谱与大模型双向驱动的关键问题和应用探索
AAAI 2024| 知识图谱论文总结
最近,收集一下AAAI 2024关于知识图谱的论文,主要是以Knowledge graph为关键词进行总结,关于知识图谱中涉及到的实体识别、关系抽取等文章就不在本次的总结之列(如有遗漏,欢迎大家补充)。
时空探索之旅
2024/11/19
2.3K0
AAAI 2024| 知识图谱论文总结
如何用知识图谱和Llama-Index来实现RAG?
幻觉是与大型语言模型(LLM)一起工作时常见的问题。LLM能够生成流畅连贯的文本,但往往会产生不准确或不一致的信息。避免LLM产生幻觉的方法之一是使用外部知识源,如数据库或知识图谱,提供事实信息。
山行AI
2023/12/19
2.8K0
如何用知识图谱和Llama-Index来实现RAG?
中科大王杰教授:基于表示学习的知识图谱推理技术
作者 | 维克多 编辑 | 青暮知识图谱蕴含丰富的人类先验知识,具有重要的学术价值和广泛的应用前景。知识图谱推理作为知识图谱领域的核心技术,能够极大地扩展现有知识的边界,有力地辅助人类进行智能决策。2021年12月17日,中国科学技术大学教授,博士生导师,国家优青王杰在 CNCC 2021 “知识为意,图谱为形--基于图机器学习的知识推理”专题论坛上做了《基于表示学习的知识图谱推理技术——从简单推理到复杂推理》的报告。在报告中,王杰结合知识图谱近年来的研究趋势与应用场景,聚焦从单一图谱推理到联合外部信息推理
AI科技评论
2022/03/03
1.1K0
如何评估知识图谱嵌入模型的性能
知识图谱嵌入(KGE)是通过将图中的实体和关系表示为低维向量,从而使得原本复杂的图结构可以被机器学习模型处理,并用于后续任务。有效的评估方法能够帮助研究者和工程师了解模型在不同任务中的表现,并优化模型以提升其在下游应用中的性能。
数字扫地僧
2024/09/07
3610
RNNLogic:知识图谱推理的逻辑规则学习
今天为大家带来蒙特利尔大学Yoshua Bengio最近的一篇文章。文章提到解决知识图谱推理任务时,逻辑规则的重要性。但是现有方法或面临搜索空间过大的问题,或由于稀疏奖励而使得性能较差。为了解决这些限制,作者提出了一个概率模型RNNLogic。
DrugAI
2021/02/02
4.7K0
RNNLogic:知识图谱推理的逻辑规则学习
知识图谱研讨实录09丨肖仰华教授带你读懂知识图谱语言认知
知识图谱是一种大规模语义网络,已经成为大数据时代知识工程的代表性进展。 知识图谱技术是实现机器认知智能和推动各行业智能化发展的关键基础技术。由复旦大学肖仰华教授策划的《知识图谱:概念与技术》课程体系,已在国内进行了多次巡回演讲,受到参会人员一致好评。 课程主要目的和宗旨是系统讲述知识图谱相关知识,让同学们对知识图谱的理论和技术有一个系统的认知。本实录来自该课程老师和同学的研讨。 下面让我们通过第十二章《基于知识图谱的语言认知》的15条精华研讨,来进一步学习了解知识图谱技术内幕。文末可查看更多章节精华回顾。
博文视点Broadview
2023/05/19
2420
知识图谱研讨实录09丨肖仰华教授带你读懂知识图谱语言认知
知识图谱推理与实践(1)
由于工作原因,需要在系统里建立图谱推理功能,因此简单学习了浙江大学 陈华钧教授 知识图谱导论课程课件,这里记录下学习笔记。
JadePeng
2020/02/18
2.6K0
LightPROF:新型轻量级高效 Prompt学习-推理框架用于知识图谱问答,“检索-嵌入-推理”流程显优势 !
随着更多大语言模型(LLMs)的出现,它们持续提升的性能为自然语言处理(NLP)领域带来了重大创新 。在大量训练数据和庞大参数下展现出的“涌现能力”使LLMs在复杂的零样本任务中表现出色。尽管LLMs效果显著,但由于任务特定先验知识和理解能力有限,它们在知识密集型任务中仍面临挑战。此外,LLMs高昂且耗时的训练过程给持续更新和维护其知识库带来了相当大的难题。
未来先知
2025/05/09
770
LightPROF:新型轻量级高效 Prompt学习-推理框架用于知识图谱问答,“检索-嵌入-推理”流程显优势 !
知识图谱嵌入的关系推理
随着大数据时代的到来,知识图谱在许多领域得到了广泛应用,如搜索引擎、推荐系统、语音助手等。然而,知识图谱的构建通常是通过自动化和半自动化的方式进行的,其中很多关系是通过算法推理得出的。这就引出了关系推理这一关键问题:如何从现有的知识图谱中推断出新的关系,以丰富图谱内容。
数字扫地僧
2024/09/26
2890
知识图谱(一)-基本概念 原
知识图谱(Knowledge Graph),在图书情报界称为知识域可视化或知识领域映射地图,是显示知识发展进程与结构关系的一系列各种不同的图形,用可视化技术描述知识资源及其载体,挖掘、分析、构建、绘制和显示知识及它们之间的相互联系。 知识图谱是通过将应用数学、图形学、信息可视化技术、信息科学等学科的理论与方法与计量学引文分析、共现分析等方法结合,并利用可视化的图谱形象地展示学科的核心结构、发展历史、前沿领域以及整体知识架构达到多学科融合目的的现代理论。
Pulsar-V
2019/07/19
6.4K1
【读书笔记】基于知识库的问答:生成查询图进行语义分析
【导读】将DBPedia和Freebase这样的大规模知识库组织并存储在一个结构化的数据库,这已成为支持开放领域问题问答的重要资源。 KB-QA的大多数方法基于语义解析,其中问题被映射到其形式表示(例如,逻辑形式),然后被翻译成KB查询。 问题的答案可以很容易地通过查询语句得到。语义解析还提供了对问题的更深入的理解,不仅可以得到答案,而且可以为开发人员提供易于解释的信息以进行错误分析。本文通过应用实体链接系统和匹配问题和谓词序列的深度卷积神经网络模型,大大优于以前的方法,并在WEBQUESTIONS数据集上
WZEARW
2018/04/08
2.2K0
【读书笔记】基于知识库的问答:生成查询图进行语义分析
伯克利&清华从GPT等预训练语言模型中无监督构建出知识图谱!
近日,图灵奖得主、深度学习教父Yann LeCun在社交媒体发出警告,称“人们对GPT-3这样的大规模语言模型能做什么有着完全不切实际的期待。”
AI科技评论
2020/11/06
2K0
伯克利&清华从GPT等预训练语言模型中无监督构建出知识图谱!
推荐阅读
相关推荐
知识图谱增强的KG-RAG框架
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档