前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >从ID-based到LLM-based: 可迁移推荐系统研究进展总结

从ID-based到LLM-based: 可迁移推荐系统研究进展总结

作者头像
张小磊
发布于 2023-11-07 08:27:48
发布于 2023-11-07 08:27:48
1.2K0
举报

嘿,记得给“机器学习与推荐算法”添加星标


作者:张家祺 单位:西湖大学

TLDR: 本文综述了近期关于可迁移推荐系统的发展现状,并分别介绍了基于ID、基于模态和基于大语言模型的可迁移推荐系统的代表性工作,最后对该方向进行了系统性的总结和展望。

论文列表:https://github.com/westlake-repl/Recommendation-Systems-without-Explicit-ID-Features-A-Literature-Review

一、可迁移推荐系统发展历程

推荐系统的核心目标是通过建模用户的历史行为预测最有可能交互的下一个目标。而这一目标在用户交互记录较少的情况下尤为困难,即长期困扰推荐系统领域发展的冷启动问题。在这些新用户很少并且其交互序列有限的新推荐系统场景中,前期的模型训练往往缺乏足够的样本数据。对有限训练数据的建模也必然无法获得用户满意的推荐结果,使得平台成长受到很大阻碍。迁移学习是学术界和工业界为了解决这一问题所一直关注的解决方案。如果可以向新场景中引入预先训练到的知识帮助建模用户序列或加速建模速度,这将极大缓解下游新场景中冷启动问题带来的巨大成本。

为此,对可迁移推荐系统的研究几乎贯穿了推荐系统领域发展的每一个阶段。从基于物品ID和用户ID的矩阵分解时代,可迁移推荐系统必须基于上下游场景的数据覆盖实现基于ID的推荐系统迁移学习。到近几年模态理解技术的迅猛发展,研究人员逐渐转向利用纯模态信息建模用户序列,从而实现在上下游场景没有数据覆盖的情况下实现可迁移推荐系统。再到当下利用大规模预训练语言模型(LLM)完成‘one-for-all’的推荐系统大模型得到大量关注。可迁移推荐系统乃至推荐系统大模型的研究已成为推荐系统领域发展的下一个方向。

二、基于ID的可迁移推荐系统

第一阶段是矩阵分解时代,使用ID embedding来建模物品的协同过滤算法是推荐系统的主流范式,并在之后的15年间主导了整个推荐系统社区。经典架构包括:双塔架构、CTR模型、会话和序列推荐、Graph网络。他们无不采用ID embedding 来对物品进行建模,整个推荐系统现有的SOTA体系也几乎都是采用基于ID特征的建模手段。这一阶段,可迁移推荐系统自然依靠ID实现,而且必须在上下游场景之间有数据重叠,即要求不同数据集之间存在共同用户或者物品,例如大公司里存在多个业务场景, 通过老的业务引流新的业务。这一阶段的早期工作有PeterRec [1](SIGIR2020)、Conure [2](SIGIR2021)和CLUE [3] (ICDM2021)等。

PeterRec是推荐系统领域首篇论文明确提出基于自监督预训练(自回归与Mask语言模型)的用户表征具备通用性,并清晰地呈现出该预训练的通用表征可用于跨域推荐和用户画像预测,显著提升性能。其中,采用用户画像预测评估用户表征的通用性被后续相关论文广泛沿用。同时,PeterRec提出,通用性用户模型在下游任务迁移过程,应该做到参数有效共享(公司往往有上百种用户画像要预测,数十个业务推荐场景),并引入基于Adapter技术,这也是推荐系统首次采用Adapter,通过微调模型补丁实现不同任务有效迁移学习。另外,PeterRec还发布了一套大规模的跨域推荐系统数据集。

Conure是推荐系统领域首个用户通用表征的终生学习(lifelong learning)模型,首次提出一个模型连续学习和同时服务多个不同的下游任务。作者提出的‘一人一世界’概念启发了当下推荐系统one4all模型的研究。

CLUE认为PeterRec与Conure算法在学习用户表征时,采用自回归或者mask机制都是基于物品粒度的预测,而最优的用户表征显然应该是对完整的用户序列进行建模和训练。因此结合对比学习获得了更优的结果。

这期间有一些同时期或者future work,包括阿里的Star模型(One Model to Serve All: Star Topology Adaptive Recommender for Multi-Domain CTR Prediction),以及ShopperBERT模型 (One4all User Representation for Recommender Systems in E-commerce)。

三、基于模态信息的可迁移推荐系统

以上工作基于共享(用户或者物品)ID方式实现领域之间的迁移性和跨域推荐,比较适用于公司内部不同业务之间, 而现实中不同推荐系统很难共享用户与item的ID信息,使得跨平台推荐这一类研究具有明显的局限性。

相比之下,深度学习的其他社区,如自然语言处理(NLP)与计算机视觉(CV)领域近几年已经涌现出一系列有影响力的通用型大模型,又称基础模型(foundation model),如BERT、GPT、Vision Transformer等。相比推荐系统ID特征,NLP与CV任务基于多模态文本与图像像素特征,可以较好的实现模型在不同任务之间的复用与迁移。替换ID特征、基于模态内容实现不同系统与平台之间的迁移是该阶段的主流方向。这一阶段的代表性工作有TransRec [4]、MoRec [5](SIGIR2023)、AdapterRec [6](WSDM2024)、NineRec[7]等。另外,同时期的工作还有人大赵鑫老师团队UnisRec以及张永峰老师团队的P5。

TransRec是首个研究混合模态迁移的推荐系统模型,也是首次考虑图像像素的迁移学习模型。TransRec采用端到端训练方式,而不是直接抽取离线item多模态表征。与基于ID的序列推荐模型比较,经过finetune的TransRec可以有效提升推荐结果。TransRec证实了大规模数据上利用混合模态信息预训练可以有效学习用户和物品的关系,并且可以迁移到下游推荐任务,实现通用推荐,论文还研究了scaling effect效果,并会发布多套多模态数据集。与TransRec同时期的工作是人大赵鑫老师团队UnisRec,UnisRec主要聚焦text模态。

MoRec首次系统性回答了使用最先进的模态编码器表征物品(MoRec)是否能取代经典的itemID embedding范式(DRec)这一问题。论文基于MoRec与IDRec的公平比较展开:如果在冷热场景下MoRec都能打败IDRec,那么推荐系统将有望迎来经典范式的变革。这一观点来自于MoRec完全基于物品的模态信息,此类内容信息天生具有迁移能力,论文通过扎实的实验系统性证明了MoRec有潜力实现通用大模型。结论一,对于时序推荐架构SASRec,在常规场景(既有热item也有一部分冷item),MoRec在文本上明显优于IDRec,而在图片上则和IDRec效果相当。

在冷启动场景,MoRec大幅优于IDRec,在热门商品推荐场景,MoRec和IDRec效果相当。结论2:MoRec为推荐系统和NLP、CV等多模态社区建立了联系,而且一般来说,可以很好的继承NLP和CV领域的最新进展。结论3:工业界流行的Two-stage离线特征提取推荐方式会导致MoRec性能显著下降(特别是对于视觉推荐),这在实践中不应该被忽视。同时,尽管多模态领域的预训练模型在近年来取得了革命性的成功,但其表征还没有做到通用性和泛化性,至少对于推荐系统是这样(MoRec论文也被Google DeepMind团队邀请给了一个talk,Google researcher对该工作评价非常高)。受此启发,近期已经出现很多相关工作。

AdapterRec首次系统性讨论了基于模态信息的高效迁移方法。论文评估了基于适配器(Adapter)的模型补丁。与以往工作在下游迁移时微调全部参数不同,AdapterRec在迁移时在模型网络中插入并仅微调适配器网络。论文在大规模文本、图片模态数据上进行了丰富的验证实验。结果表明,基于文本、图片模态的适配器都可以实现良好的迁移效果。基于文本模态时,适配器技术可以在微调极少量参数的计算成本下实现与微调全部参数相近的迁移结果。AdapterRec证实了基于适配器技术的高效迁移方法是实现通用推荐系统大模型的重要环节。

NineRec提出了迄今为止推荐系统领域规模最大最多样的多模态迁移学习数据集。论文延续MoRec与IDRec公平比较的原则,系统性评估了MoRec的迁移能力并给出详见的指导建议与评估平台。NineRec提供了一套大规模预训练数据集和九个下游场景数据集,其中仅预训练数据集就包含200万用户、14万物品以及近2500万条交互记录信息。论文设计大规模实验评估了多种经典推荐架构(SASRec, BERT4Rec,NextItNet,GRU4Rec)与物品编码器(BERT, Roberta, OPT, ResNet, Swin Transformer)的迁移表现,并验证了端到端迁移(End-to-End)与两阶段迁移(Two-stage)对于迁移推荐的影响。

实验结果表明,利用端到端训练技术可以极大程度上激发模态信息的潜能,仅使用经典框架如SASRec即可超越近期同类型可迁移推荐模型。论文还验证了基于纯模态信息的zero-shot迁移能力。NineRec为基于模态的推荐系统迁移学习和推荐大模型发展提供了全新的平台和基准。NineRec(只有文本和图片模态)之后,团队联合发布了MicroLens [11] 数据集,是当前最大的短视频推荐数据集包含原始短视频,是其他相关数据集规模的数千倍,用户量达到3000万,点击行为达到10亿,可以用于训练推荐系统大模型。NineRec与MicroLens算力和数据集收集费用都超过百万人民币。

四、基于LLM的可迁移推荐系统

当下人工智能领域进入大模型时代,越来越多的通用大模型在各个领域被提出,极大的促进了AI社区的发展。然而大模型技术在推荐系统领域应用还处于早期阶段。诸多问题并没有得到很好的回答,如利用大语言模型理解推荐任务是否能大幅超越原有的ID范式?是否越大规模参数的大模型网络可以带来通用推荐表征?回答这些问题是推动推荐系统社区进入大模型时代的敲门砖,受到了越来越多科研团队的关注。这里主要介绍P5[8]和GPT4Rec[9],P5是采用LM作为推荐backbone,而GPT4Rec则是极限地评估1750亿的item encoder表能能力, 后续工作也非常多(例如基于prompt,基于chain of thought,基于ChatGPT等),例如同时期的工作还有Google的LLM for rating prediction[10], 与GPT4Rec类似,都是采用迁移模型评估性能极限,一个专注top-n item推荐,一个专注rating prediction。

P5提出了一种基于文本模态的多任务大模型框架,将多种经典推荐任务转化为统一的自然语言理解任务,包括序列推荐、评分预测、推荐理由、摘要以及直接推荐等多种任务。模型设计上,P5通过基于提示(prompt)的自然语言格式来构建任务,将这些相关的推荐任务统一为序列到序列(seq-to-seq)框架中进行学习。数据方面,P5将各种可用数据,例如用户信息、物品元数据、用户评论以及用户与物品的互动数据转化为自然语言序列。丰富的训练数据产生了满足个性化推荐需求的语义信息。

GPT4Rec首次探索了使用百亿规模大语言模型作为物品编码器。论文提出并回答了几个关键性的问题:(1)基于文本的协同过滤推荐算法(TCF)的性能随着物品编码器参数量不断增加表现如何?是否在千亿规模能达到上限?(2)超大参数的LLM,如175B参数GPT-3,是否能产生通用的item表征?(3)基于公平比较, 装配了175B参数量的LLM的推荐系统算法能否打败基于ID的经典算法(4)基于LLM的TCF算法距离推荐系统通用大模型还有多远?

实验结果表明:(1)175B的参数LM可能还没有达到其性能上限,通过观察到LLM的参数量从13B到175B时,TCF模型的性能还没有收敛。这一现象表明将来使用更多参数的LLM用作文本编码器是有带来更高的推荐准确性的潜力的。(2)即使是由极其庞大的LM(如GPT-3)学习到的物品表示,也未必能形成一个通用的表征。在相应的推荐系统数据集微调仍然对于获得SOTA仍然是必要的,至少对文本推荐任务来说是如此。(3) 即使采用175B和微调的66B的语言模型,当使用DSSM作为推荐骨架时,TCF仍然很大程度的劣于IDRec,但是对于序列推荐模型,LLM即便采用冻住的表征,也基本可以跟IDRec相媲美。(4)虽然装配了175B参数量LLM的TCF模型的表现优于随机采样的item的推荐,甚至达到了6-40倍的提升。但与在推荐数据上重新训练的TCF模型相比,它们仍然有巨大的差距。另外,论文发现(5)ChatGPT在典型的推荐系统场景与TCF相比表现存在较大的差距,文章猜测需要更加精细的prompt,ChatGPT才有可能用于某些真实推荐场景。

五、总结

目前推荐系统社区内,基于模态内容的大模型研究仍处于起步阶段:(1)基于传统的ID的推荐算法难以解决模态场景问题; (2)已有的基于模态内容的跨域推荐系统文献通用性较低; (3)非端到端的联合训练提取的特征可能存在粒度尺度不匹配等问题,通常只能生成次优的推荐水平; (4)社区缺少包含模态内容的可用于迁移学习研究的大规模公开数据集,缺少基准和排行榜(leaderboard); (5)已有文献中的推荐系统大模型参数量和训练数据太小(相对于NLP与CV领域),缺少开源的推荐系统大模型预训练参数。

参考文献

[1] Parameter-efficient transfer from sequential behaviors for user modeling and recommendation (SIGIR2020) [2] One Person, One Model, One World: Learning Continual User Representation without Forgetting (SIGIR2021) [3] Learning transferable user representations with sequential behaviors via contrastive pre-training (ICDM2021) [4] TransRec: Learning Transferable Recommendation from Mixture-of-Modality Feedback. Arxiv2022/06 [5] Where to Go Next for Recommender Systems? ID- vs. Modality-based Recommender Models Revisited (SIGIR2023) [6] Exploring Adapter-based Transfer Learning for Recommender Systems: Empirical Studies and Practical Insights (WSDM2024) [7] NineRec: A Suite of Transfer Learning Datasets for ModalityBased Recommender Systems. Arxiv2023/09 [8] Recommendation as Language Processing (RLP): A Unified Pretrain, Personalized Prompt & Predict Paradigm (P5) (Recsys2022) [9] Exploring the Upper Limits of Text-Based Collaborative Filtering Using Large Language Models: Discoveries and Insights. Arxiv2023/05 [10] Do LLMs Understand User Preferences? Evaluating LLMs On User Rating Prediction. Arxiv2023/05 [11] A Content-Driven Micro-Video Recommendation Dataset at Scale. Arxiv2023/09

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-11-06,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器学习与推荐算法 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
SIGIR 2023 | 推荐系统何去何从,经典ID范式要被颠覆?
机器之心专栏 机器之心编辑部 本文调查了一个富有潜力的问题,即多模态推荐系统MoRec 是否有望终结 IDRec 在推荐系统领域长达10年的主导地位,基于此,论文进行了深入研究。相关成果已被 SIGIR 2023 接收。 链接: https://arxiv.org/abs/2303.13835 代码: https://github.com/westlake-repl/IDvs.MoRec 研究背景  [纯 ID 推荐系统 vs 纯模态推荐系统]  自矩阵分解问世以来,使用 ID embedding 来建模
机器之心
2023/05/31
6370
SIGIR 2023 | 推荐系统何去何从,经典ID范式要被颠覆?
LLM4Rec:当推荐系统遇到大语言模型
大模型LLM在越来越多的领域开始崭露头角,前段时间我们整理了大模型在推荐系统中的应用 survey,当时留了一些坑没填上,今天补上。
NewBeeNLP
2024/01/17
3.4K0
LLM4Rec:当推荐系统遇到大语言模型
推荐系统范式之争,LLM vs. ID?
TLDR: 本文与已有的LLM4Rec一个主要区别在于,已有的ChatGPT4Rec文献大多是调用OpenAI API来做prompt工程,本文则是将1750亿的GPT-3作为item encoder替换ID。为了对该范式(论文称之为TCF范式,在过去几年涌现了大量相关论文,不过多是使用BERT,word2vec等中小型item 编码器)性能进行极限研究和评价,论文甚至对600亿LLM做微调或者重新训练,目的是为了回答基于文本的推荐范式的若干核心问题,相关实验可以看出完成该论文的算力成本之高。
张小磊
2023/08/22
6910
推荐系统范式之争,LLM vs. ID?
奥创纪元:当推荐系统遇到大模型LLM
大模型LLM在越来越多的领域开始崭露头角,比如我们在今年上半年曾在某电商平台落地过较为直观简单的LLMx搜索项目(我们称之为LLM应用的第一阶段),同时拿到线上收益,LLM的潜力可见一斑。
NewBeeNLP
2023/12/04
1.9K0
奥创纪元:当推荐系统遇到大模型LLM
推荐系统通用用户表征预训练研究进展
随着NLP和CV领域的发展,涌现出了以BERT,GPT为代表的大规模语言模型和以ImageNet为代表的各种经典视觉模型,如resnet和visual transformer,在各自领域都产生了很大的成功,而且实现了通用语言/视觉表征能力,例如BERT学好的语言表征可以被应用到各种各样的下游任务。受到相关技术的启发,推荐系统最近两年也出现了一些学习用户通用表征的算法和深度模型,也就是,通过对用户行为进行某种程度预训练,然后adapt到一些下游任务中,这些下游任务包括,跨域推荐和用户画像预测,本文简要介绍几种
AI科技评论
2023/04/12
1.1K0
推荐系统通用用户表征预训练研究进展
LEARN: LLM在快手电商广告推荐场景的应用
今天继续分享一篇大模型在推荐系统中的落地应用工作,是快手今年5月份发表的论文《Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application》。
NewBeeNLP
2024/06/27
1.2K0
LEARN: LLM在快手电商广告推荐场景的应用
NoteLLM: 大语言模型在小红书推荐系统的落地应用
今天分享一篇小红书今年3月的论文,介绍了大语言模型在小红书笔记推荐场景下的落地应用,主要是围绕如何利用LLM的表征能力来生成更适用于i2i召回的文本embedding,思路简单,落地也容易,个人觉得实践价值非常高,值得学习。
NewBeeNLP
2024/06/04
2.9K0
NoteLLM: 大语言模型在小红书推荐系统的落地应用
仅需少量视频观看数据,即可精准推断用户习惯:腾讯、谷歌、中科大团队提出迁移学习架构PeterRec
推导迁移学习对计算机视觉和 NLP 领域产生了重大影响,但尚未在推荐系统广泛使用。虽然大量的研究根据建模的用户-物品交互序列生成推荐,但很少有研究尝试表征和迁移这些模型从而用于下游任务(数据样本通常非常有限)。
机器之心
2020/05/19
7610
仅需少量视频观看数据,即可精准推断用户习惯:腾讯、谷歌、中科大团队提出迁移学习架构PeterRec
TransRec: 基于混合模态反馈的可迁移推荐系统
自然语言处理(NLP)和计算机视觉(CV)领域已经成功开启了预训练与大模型新时代,涌现出了以BERT,GPT-3, ViT等为代表的划时代成果,实现了one4all范式,也就是一个通用大模型服务于几乎所有下游任务。而推荐系统在该方向发展缓慢,期间虽然产生了一些预训练模型(如文献[1,2,3]),但始终都不是NLP与CV的味道,模型的可迁移性范围有限,通常只适用于一个公司内部业务场景,无法实现广义上的可迁移性和通用性。
张小磊
2022/10/31
6340
论文合集 | 图大模型推荐研究
大型语言模型(LLMs)已经彻底改变了自然语言处理任务,而其与图神经网络(GNN上)之间又会擦出怎样的火花呢?本文汇总了20篇与图大模型相关的论文(主要以推荐系统领域为主),展示最新的工作研究进展。
Houye
2024/05/18
9580
论文合集 | 图大模型推荐研究
一文梳理联邦学习推荐系统研究进展
推荐系统,对于我们来说并不陌生,它已经无时无刻不方便着我们的生活、学习、工作等方方面面,并且已经成为许多社交/购物/新闻平台中必不可少的组件。近些年来学术界以及工业界的研究者们已经对其进行了大量研究并提出了许多经典有效的推荐模型,比如UserCF、ItemCF、MF、FM、BPR、Item2vec、NCF、DIN等等,更多推荐模型介绍可参考[一文尽览推荐系统模型演变史]。
张小磊
2021/09/23
1.3K0
100层序列推荐模型也能被加速训练!这篇顶会论文带你探索Very Deep RS模型
而今天,AI 科技评论将为大家介绍一篇由中科院先进所、腾讯、华南理工近日合作发表在信息检索领域顶会 SIGIR 2021上的一篇论文,这篇论文发现通过对残差块结构进行微小的修改,序列推荐模型能够使用更深的网络结构以进一步提升精准度,也就是,推荐模型也能够像计算机视觉领域的模型那样拥有100层以上的深度并获得最优性能。
AI科技评论
2021/07/03
6850
100层序列推荐模型也能被加速训练!这篇顶会论文带你探索Very Deep RS模型
当推荐系统遇到大模型
本文整理了2023年以来,ChatGPT等语言大模型在推荐系统中的应用。基于大模型的推荐系统,与传统的推荐系统差异非常大,如果大模型推荐系统能取得成功,势必会对原来的推荐系统造成不小的冲击。截止到目前为止,已经有多篇文章初步探讨和尝试了ChatGPT等大模型在推荐系统中的应用。总体来看,ChatGPT在推荐系统中的应用有不小的潜力,主要体现在以下几个方面:
圆圆的算法笔记
2023/08/17
3K0
当推荐系统遇到大模型
仅需少量视频观看记录,就可以精准推断你的习惯
本文转载自机器之心 仅从一个人的抖音、快手、腾讯视频的观看记录里,我们能发现什么?这篇被信息检索领域顶级国际会议 SIGIR 接受为长文章的论文可以告诉你。 近日,腾讯看点推荐团队、Google Research 和中科大的研究工作首次证实,仅依靠用户视频新闻观看记录,就可以精确地推测出用户的各种个人信息信息,包括但不限于用户年龄段、性别、喜好、人生状况(例如单身/已婚/怀孕等)、职业、学历等信息,甚至是否有心理抑郁暴力倾向。 这一客观发现和研究方法将有利于改进现有的一些公共服务质量,提供相关辅助依据
腾讯技术工程官方号
2020/06/11
6190
覆盖四种场景、包含正负向反馈,腾讯、西湖大学等发布推荐系统公开数据集Tenrec
近些年来,通过各种内容平台浏览视频或者是阅读文章的用户越来越多,而现有的推荐算法有时难以很好地建模用户的偏好,因此需要更准确的推荐系统模型。但已知的推荐系统(RS)的基准数据集要么是小规模的,要么是用户反馈形式非常有限。在这些数据集上评估的推荐系统模型往往缺乏实用性,难以为大规模真实场景应用提供足够的价值。
机器之心
2022/12/16
1K0
覆盖四种场景、包含正负向反馈,腾讯、西湖大学等发布推荐系统公开数据集Tenrec
LLM-Rec: 基于提示大语言模型的个性化推荐系统
TLDR 本文研究了通过输入增强来提高大语言模型个性化内容推荐性能的各种提示策略。提出的方法LLM-Rec包括四种不同的提示策略:1)基本提示 2)推荐驱动提示 3)参与指导提示 4)推荐驱动+参与指导提示。 实验结果表明,将原始内容描述与LLM使用这些提示策略生成的增强输入文本相结合,可以提高推荐性能。这一发现强调了在大语言模型中融入多样化的提示和输入增强技术以提高个性化内容推荐能力的重要性。
张小磊
2023/09/09
1.3K0
LLM-Rec: 基于提示大语言模型的个性化推荐系统
RecSys'22 推荐系统论文梳理
RecSys 2022已公布录用论文,接收39篇/投稿231篇,录用率为17%,再创历史新低。完整录用论文列表见
枫桦
2022/08/02
1.2K0
基于生成模型的推荐系统综述 (Gen-RecSys)
TLDR: 本篇综述旨在调研生成式推荐模型(Gen-RecSys)的主要进展,包括:交互驱动生成模型的基本概述;大型语言模型(LLM)在生成式推荐、检索和会话推荐中的应用;推荐系统中处理和生成图像视频内容的多模态模型的整合。本文以整体视角讨论了Gen-RecSys的影响和危害,并指出了其面临的挑战。
张小磊
2024/06/18
2K0
基于生成模型的推荐系统综述 (Gen-RecSys)
When RS Meets LLM:推荐系统如何从大语言模型中取长补短?面向应用视角的全面综述
Github: https://github.com/CHIANGEL/Awesome-LLM-for-RecSys
Houye
2023/09/04
1.2K0
When RS Meets LLM:推荐系统如何从大语言模型中取长补短?面向应用视角的全面综述
生成式推荐系统初探
随着 ChatGPT 的横空出世与 GPT-4 的重磅登场,生成式 AI(Generative AI)引起了前所未有的关注,基于 GPT(Generative Pre-Trained Transformer)的模型在各类 NLP 和 CV 任务上取得了惊人的效果。生成式 AI 模型可以根据训练过的数据创建新的内容、模式或解决方案,一些典型应用包括 ChatGPT、Stable Diffusion 和 DALL·E 等(封面图片来自 DALL·E)。然而,在推荐系统(RS)领域研究中,受限于推荐系统 User/Item ID 的范式,以及大多情况下为非通用、非常识知识,因而直接将基于 GPT 的模型作为推荐模型具有一定的局限性。例如,在电影、图书和音乐等领域推荐场景直接将 ChatGPT 作为推荐模型可以取得较好的效果,然而,在其他一些领域推荐场景直接利用 ChatGPT 效果有限。随着各类生成式模型层出不穷,部分研究人员开始考虑如何在 RS 中有效引入生成式 AI。本文主要关注 RS 和生成式 AI 可能存在的结合点,调研了 RecSys'23 等会议录用的若干相关工作,以及最新已公开的若干方法。
腾讯技术工程官方号
2023/08/16
1.3K0
生成式推荐系统初探
推荐阅读
相关推荐
SIGIR 2023 | 推荐系统何去何从,经典ID范式要被颠覆?
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档