前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >XRec: 大模型如何重塑推荐系统的可解释性

XRec: 大模型如何重塑推荐系统的可解释性

作者头像
张小磊
发布于 2024-06-18 08:15:48
发布于 2024-06-18 08:15:48
7020
举报

TLDR: 这篇文章给大家分享来自香港大学数据智能实验室最近推出的智能推荐大模型XRec,旨在利用大语言模型为推荐系统提供基于自然语言的可解释性。

论文:https://arxiv.org/pdf/2406.02377 代码:https://github.com/HKUDS/XRec 主页:https://sites.google.com/view/chaoh

导读

传统推荐系统虽然能给出准确的推荐结果, 但缺乏对推荐逻辑的解释, 难以让用户真正理解和信任。让推荐系统能以自然语言向用户阐述其推荐依据, 不仅能增强用户的理解, 还能促进他们与系统的互动, 从而获得更满意的体验。

与此同时,可解释性推荐系统可以增强推荐系统的智能化。自然语言模型具有深入理解用户需求和偏好的能力, 能够形成更细致入微的用户画像。基于这种丰富的用户洞见, 推荐系统不仅能做出更精准的推荐, 还可以为用户提供有价值的决策支持, 进一步提高系统的智能化水平。总的来说, 可解释性推荐系统有助于实现人机协作, 推动推荐技术的发展。

因此,基于提升用户体验和增强推荐系统智能化的动机, 受启发于大语言模型强大的自然语言能力, 港大数据智能实验室致力于开发能够让推荐系统具备可解释性语言能力的大模型。

这一方向的研究旨在突破传统推荐系统的局限性, 让推荐系统不仅能给出精准的结果, 还能用通俗易懂的语言向用户解释其推荐依据。通过整合大语言模型的语义理解能力和协同过滤的用户偏好建模, 港大数据智能实验室正在探索构建一种"可解释推荐"(XRec)大模型框架, 使推荐系统具备洞察用户需求、生成准确解释的智能化水平。

这种融合自然语言处理和推荐系统的创新尝试, 不仅能大幅提升用户体验, 增强他们对推荐结果的理解和信任, 也将为推荐技术的发展注入新的活力, 最终实现人机协作, 为用户提供更优质的智能服务。

模型方法

XRec 利用大型语言模型 (LLMs) 为推荐系统的输出提供丰富的自然语言解释。通过整合协作信号并采用轻量级推荐信号适配器,XRec 深入理解用户偏好和用户-物品交互中的复杂模式。该框架在具有挑战性的零样本场景中, 展现了其在未见用户和物品方面的出色泛化能力。

协同关系Tokenizer

为了有效地捕捉大量用户和商品之间的协作关系, 以及反映他们的交互模式, 自然语言的表达能力是不足的, 但表征(representation)提供了一种强大的替代方案。在我们的XRec系统中, 我们利用图神经网络 (GNNs) 作为协同信号的tokenizer,将复杂的用户-商品交互关系信息编码到潜在的嵌入空间中, 从而实现对复杂用户偏好的有效建模。具体而言, 我们的协作图 tokenizer 基于图神经网络的消息传递机制(message passing), 在用户-商品交互图中进行信息的传播和聚合, 促进用户和商品节点表征的学习。这样不仅能够更好地捕捉节点之间的关联, 还能够反映出复杂的交互模式。

大语言模型的输入适配器

协同信息适配器 (Collaborative Information Adapter)鉴于用户-商品交互行为所反映的协同信息, 其语义表示空间(embedding space)可能与用户和商品的文本语义存在差异, 我们的XRec模型配备了一个轻量级但有效的适配器模块。此适配器的作用是对这些不同的语义模态进行对齐, 使我们的模型能够有效地融合利用协同信号和文本语义, 从而提升整体的建模能力。

协同过滤(CF)与大语言模型(LLM)的融合在对嵌入进行新的适配之后, 我们现已做好将协同信息融入大语言模型的准备。我们引入了特殊的标记(tokens)来保留输入提示中的空间, 然后将提示转换为token嵌入后, 将已适配的嵌入注入到这些保留的位置中。

然而, 由于每个节点嵌入在输入提示中仅由一个单一的token表示, 随着输入长度的增加, 分配给每个嵌入token的注意力权重(attention weight)不可避免地会减弱, 这可能导致协同信息的损失。为了解决这种影响力的稀释问题, 我们将适配后的嵌入扩展到LLM的初始输入提示之外。具体来说, 我们将它们注入到LLM每一层的保留位置中。为了促进这一过程, 我们修改了LLM内部每一层的query、key和value投影函数如下:

我们用表示查询(query)、键(key)和值(value)的投影矩阵, 用表示适配后的嵌入。我们的方法确保大型语言模型(LLMs)不仅在输入阶段, 而且在整个网络结构中都能不断访问和整合协同信息。通过将基于图的知识注入到LLMs的所有层中, 我们不仅保持了协同上下文的强大表征, 还使得直接回到专家混合(MoE)模块的梯度流更为有效。这种创新的语言建模和图表示学习的融合, 使我们的模型能够利用LLMs提供的深层语境洞见, 同时从图神经网络(GNN)识别的结构模式中获益。

损失函数

为了提升大型语言模型(LLMs)生成语境和句法连贯解释的能力, 我们的目标是最小化预测下一个token的概率与实际下一个token之间的损失。我们采用负对数似然(Negative Log Likelihood, NLL)作为训练损失, 计算公式如下:

其中, N 为解释的数量, 为每个解释中的字符计数, 和 ŷ 分别表示实际和预测的token。为了降低训练复杂度, 我们冻结了LLMs内部的所有参数, 不包括与图神经网络(GNN)训练过程的任何交互。唯一可训练的参数是在基于专家混合(Mixture of Experts, MoE)的适配器模型中的参数。

基准解释的生成

之前的研究直接使用用户评论作为推荐系统的基准解释。然而, 这些评论往往带有主观色彩, 可能只是隐含地传达了用户的意图或情绪。为了解决这一限制, 提高基准解释的质量, 我们创新性地使用大型语言模型(Large Language Model, LLM)从原始评论中提取出明确的用户意图。

实验验证

我们在三个公开数据集(Amazon-books、Yelp和Google-reviews)上使用GPTScore、BERTScore等指标评估了XRec模型。实验结果表明, XRec在可解释性和稳定性方面均显著优于所有基准模型(Att2Seq、NRT、PETER和PEPLER)。

模型鲁棒性的探索

为了评估模型的泛化能力, 我们在不同数据稀疏性的数据集上进行了实验。根据用户在训练数据中出现的频率, 我们将测试数据划分为五个子集(tst1到tst5)。这使我们能够系统地检查模型在不同用户熟悉度范围内的有效性, 从罕见到频繁的用户。此外, 我们引入了一个零样本测试数据集, 其中仅包含训练期间未遇到的用户, 以测试模型解决冷启动问题的能力。

在零样本场景中, 由于缺乏任何先前的用户数据, 我们的模型不仅优于基线, 而且与其他子集(从tst1到tst5)的表现相当。这种能力对于新用户的推荐非常有价值, 也突显了我们方法在实际应用中的实用性, 其中用户行为和项目目录经常变化。

这些发现强调了我们的模型在传统推荐系统面临的挑战中的有效性, 例如涉及新用户或不频繁用户的情况。模型在零样本学习中的成功证明了其强大的泛化能力, 并突显了其解决冷启动问题的潜力, 即新用户或项目缺乏历史交互数据。通过在不同情境中保持高水平的可解释性和稳定性, 该模型证明了其适用于动态环境中部署, 其中用户行为和项目目录经常变化。

模型消融实验

我们进行了消融实验, 以探索模型中两个关键组件的影响:用户/项目属性和协同信息的注入。我们比较了以下四种模型变体:

  • 完整模型(Ours): 包含所有特性
  • 无属性(Ours w/o profile): 省略了用户和项目属性
  • 无协同信号注入(Ours w/o injection): 保留了对齐嵌入在提示中, 但未将其注入到LLM层
  • 无属性&协同信号注入(Ours w/o profile & injection): 缺少属性和基于协同信号嵌入的注入

为了严格评估可解释性和稳定性, 我们使用GPTScore和BERTScore在Amazon-books和Google-reviews数据集上评估了这些变体, 包括它们的标准差。这揭示了每个元素在推动模型性能和能力方面的关键作用。结果显示, 我们的完整模型(Ours)在可解释性和稳定性方面优于其他变体, 突出了每个元素的重要贡献。

结语

本文提出了一个新颖的XRec框架, 它无缝集成了基于图的协同过滤范式和大语言模型(LLMs)的能力, 以生成对推荐输出的全面且富有洞察力的解释。通过利用用户-商品交互图中编码的固有协同关系, XRec能够有效捕获构成用户偏好和项目关联的高阶依赖性。XRec引入了一个专门的协同信息适配器, 作为建立协同信号(collaborative signal)与LLM内丰富的文本语义空间(embedding space)之间强连接的关键桥梁。

广泛的实验结果强调了XRec框架的显著优势。它不仅增强了推荐过程的可解释性, 还确保了在具有挑战性的零样本场景中的鲁棒性。XRec框架在这些场景中展示了强大的跨未见用户和项目的泛化能力。


本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-06-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器学习与推荐算法 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
打开黑盒神经网络!港大推出全新「会说话」的推荐系统大模型XRec,从黑盒预测到可解释
传统推荐系统虽然能给出准确的推荐结果,但缺乏对推荐过程的透明解释,难以让系统更好地理解其兴趣偏好是如何被捕捉和建模的。
新智元
2024/06/27
1720
打开黑盒神经网络!港大推出全新「会说话」的推荐系统大模型XRec,从黑盒预测到可解释
论文合集 | 图大模型推荐研究
大型语言模型(LLMs)已经彻底改变了自然语言处理任务,而其与图神经网络(GNN上)之间又会擦出怎样的火花呢?本文汇总了20篇与图大模型相关的论文(主要以推荐系统领域为主),展示最新的工作研究进展。
Houye
2024/05/18
9940
论文合集 | 图大模型推荐研究
决策过程是魔法还是科学?首个多模态大模型的可解释性综述全面深度剖析
本文由香港科技大学(广州)、上海人工智能实验室、中国人民大学及南洋理工大学联合完成。主要作者包括香港科技大学(广州)研究助理党运楷、黄楷宸、霍家灏(共同一作)、博士生严一博、访学博士生黄思睿、上海AI Lab青年研究员刘东瑞等,通讯作者胡旭明为香港科技大学/香港科技大学(广州)助理教授,研究方向为可信大模型、多模态大模型等。
机器之心
2025/02/14
2380
决策过程是魔法还是科学?首个多模态大模型的可解释性综述全面深度剖析
告诉我们事实:用知识图谱增强大语言模型以实现事实感知的语言建模
论文标题:Give Us the Facts: Enhancing Large Language Models with Knowledge Graphs for Fact-aware Language Modeling
叶庭云
2024/05/24
5660
如何提升推荐系统的可解释性?京东智能推荐卖点技术全解析
导读:京东智能商客之推荐卖点是基于NLP的产品,目前已广泛地助力和赋能于京东商城的各个平台。今天和大家分享一下自然语言处理如何在工业界落地实现。主要围绕以下5个方面展开:
DataFunTalk
2022/05/07
1.3K0
如何提升推荐系统的可解释性?京东智能推荐卖点技术全解析
中科院深圳先进院:全新知识增强图神经网络实现可解释性推荐|TKDE 2022
---- 新智元报道   作者:吴悦 连肇瑞 审核:吕子钰 编辑:LRS 【新智元导读】近日,来自中科院深圳先进院的团队提出了知识增强图神经网络(KEGNN)实现可解释性推荐。定量和定性的结果表明,KEGNN优于现有的方法,在提供精准推荐结果的同时生成人类可读的推荐解释。 近年来,以大数据和深度学习为基础的人工智能展示了卓越的计算能力和学习能力。但深度学习模型通常包含深度嵌套的非线性结构,很难确定具体哪些因素使它做出这样的决定,缺乏决策的可解释性和透明度。 与此同时,由于可解释的建议不仅提高了推荐系统
新智元
2022/06/06
7470
中科院深圳先进院:全新知识增强图神经网络实现可解释性推荐|TKDE 2022
如何让你的推荐系统具有可解释性?
Jointly Learning Explainable Rules for Recommendation with Knowledge Graph(WWW19)
炼丹笔记
2021/05/14
2.2K0
如何让你的推荐系统具有可解释性?
LLM4Rec:当推荐系统遇到大语言模型
大模型LLM在越来越多的领域开始崭露头角,前段时间我们整理了大模型在推荐系统中的应用 survey,当时留了一些坑没填上,今天补上。
NewBeeNLP
2024/01/17
3.5K0
LLM4Rec:当推荐系统遇到大语言模型
AI论文速读 | STG-LLM 大语言模型如何理解时空数据?
论文标题:How Can Large Language Models Understand Spatial-Temporal Data?
时空探索之旅
2024/11/19
2520
AI论文速读 | STG-LLM 大语言模型如何理解时空数据?
港大开源推荐系统新范式RLMRec!大模型加持,准确提炼用户/商品文本画像
推荐系统在深度学习和图神经网络的影响下已经取得了重大进步,尤其擅长于捕捉复杂的用户-物品关系。
新智元
2023/11/19
9070
港大开源推荐系统新范式RLMRec!大模型加持,准确提炼用户/商品文本画像
大模型+RAG,全面介绍!
大型语言模型(LLMs)在处理特定领域或高度专业化的查询时存在局限性,如生成不正确信息或“幻觉”。缓解这些限制的一种有前途的方法是检索增强生成(RAG),RAG就像是一个外挂,将外部数据检索集成到生成过程中,增强模型提供准确和相关响应的能力。
算法进阶
2024/05/31
9460
大模型+RAG,全面介绍!
从ID-based到LLM-based: 可迁移推荐系统研究进展总结
TLDR: 本文综述了近期关于可迁移推荐系统的发展现状,并分别介绍了基于ID、基于模态和基于大语言模型的可迁移推荐系统的代表性工作,最后对该方向进行了系统性的总结和展望。
张小磊
2023/11/07
1.2K0
从ID-based到LLM-based: 可迁移推荐系统研究进展总结
从用户反馈的可解释性提升推荐模型
作者:十方 当我们在做推荐系统模型时,有考虑过模型推荐结果的可解释性吗?比方说推荐系统给用户推荐了item A,并在推荐结果后标明该用户最要好的朋友喜欢item A,或者和该用户有着相似兴趣(协同过滤
炼丹笔记
2021/12/20
6940
从用户反馈的可解释性提升推荐模型
用大模型LLM进行异构知识融合构建推荐系统
在推荐系统中,用户回存在各种异构行为,对这些行为的有效挖掘能够提升我们对用户偏好和行为的理解。但是,将各类异构行为结合到推荐模型中的传统方法会导致特征稀疏(feature sparsity)和知识碎片(knowledge fragmentation)问题。本文提出采用大模型LLM从用户的异构行为信息中提取和融合异构知识,然后将异构知识和推荐任务相结合,在LLM上执行指令微调进行个性化推荐。
秋枫学习笔记
2023/10/06
9190
用大模型LLM进行异构知识融合构建推荐系统
一篇论文,看见百度广告推荐系统在大模型时代的革新
我们见证了 DeepSeek R1,用强大的推理能力再次点燃 AI 智力增长的火箭。
机器之心
2025/04/04
1640
一篇论文,看见百度广告推荐系统在大模型时代的革新
谷歌 | 物品-语言大模型推荐系统
TLDR: 当前将大语言模型用于推荐系统存在三方面问题:1)大语言模型不在推荐系统数据上训练,并且推荐数据通常不公开可用。2)用户交互数据通常与自然语言文本模式不同,无法确定大语言模型能否从交互数据中学习到更多的重要知识。3)难以同时适配不同的用例训练。为解决以上限制,本文提出了一个物品语言模型,其由一个物品编码器和一个冻结的大语言模型组成,前者对用户交互信息进行编码以生成与文本对齐后的物品表示,后者用保留的预训练知识理解这些物品表示。本文进行了大量的实验,证明了语言对齐和用户交互知识在物品编码器中的重要性。
张小磊
2024/07/05
3560
谷歌 | 物品-语言大模型推荐系统
实验探索: 以信息检索视角,揭开ChatGPT推荐能力的神秘面纱
TLDR: 最近,ChatGPT横空出世,横扫NLP很多任务,甚至已经出圈。但其能力边界仍然未知,特别是应用在推荐系统领域。这篇工作从point-wise,pair-wise,list-wise三种排序方式的角度,在四个不同领域的数据集上评测了ChatGPT的推荐能力,从多角度揭开了ChatGPT推荐能力的面纱。
张小磊
2023/08/22
2560
实验探索: 以信息检索视角,揭开ChatGPT推荐能力的神秘面纱
基于生成模型的推荐系统综述 (Gen-RecSys)
TLDR: 本篇综述旨在调研生成式推荐模型(Gen-RecSys)的主要进展,包括:交互驱动生成模型的基本概述;大型语言模型(LLM)在生成式推荐、检索和会话推荐中的应用;推荐系统中处理和生成图像视频内容的多模态模型的整合。本文以整体视角讨论了Gen-RecSys的影响和危害,并指出了其面临的挑战。
张小磊
2024/06/18
2.1K0
基于生成模型的推荐系统综述 (Gen-RecSys)
WSDM2024 | LLMRec: 基于大语言模型图数据增强的推荐系统
TLDR: 本文提出一种新的大语言模型增强的推荐框架LLMRec。具体地,LLMRec提出了三种基于大语言模型的图数据增强策略来强化使用辅助信息的推荐系统。
张小磊
2023/11/03
9470
WSDM2024 | LLMRec: 基于大语言模型图数据增强的推荐系统
清华张敏教授:个性化推荐研究进展(可解释性、鲁棒性和公平性)
[导 语]本文是清华大学张敏副教授在Byte Tech 2019 机器智能前沿论坛上的分享实录。Byte Tech 2019由中国人工智能学会、字节跳动、清华大学联合主办,清华大学数据科学研究院协办。
数据派THU
2019/03/08
1.2K0
清华张敏教授:个性化推荐研究进展(可解释性、鲁棒性和公平性)
推荐阅读
相关推荐
打开黑盒神经网络!港大推出全新「会说话」的推荐系统大模型XRec,从黑盒预测到可解释
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档