前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【论文阅读】Next point-of-interest recommendation with auto-correlation enhanced multi-modal transformer

【论文阅读】Next point-of-interest recommendation with auto-correlation enhanced multi-modal transformer

作者头像
EmoryHuang
发布2022-10-28 10:00:56
6280
发布2022-10-28 10:00:56
举报
文章被收录于专栏:EmoryHuang's Blog

【论文阅读】Next point-of-interest recommendation with auto-correlation enhanced multi-modal transformer network

Metadata

authors:: Yanjun Qin, Yuchen Fang, Haiyong Luo, Fang Zhao, Chenxing Wang container:: Proceedings of the 45th international ACM SIGIR conference on research and development in information retrieval year:: 2021 DOI:: 10.1145/3477495.3531905 rating:: ⭐⭐⭐⭐ share:: false comment:: 框架为 Transformer,计算序列自相关性,并考虑访问子序列,同时预测 POI 及其类别

前言

2022,SIGIR: Next point-of-interest recommendation with auto-correlation enhanced multi-modal transformer network

问题描述

OverView

之前工作中存在的问题:

  1. 以往基于 RNN 的方法仅限于短期的连续访问,也就是说,它们几乎没有对时间线上远处的访问之间的隐性联系进行建模。
  2. 相似子序列在以前的方法中没有被重视。如图所示,绿圈和红圈中出现了相似的访问子序列。
  1. POI 的类别和位置之间的交互是很重要的,因为下一个位置会受到类别的影响,如上图中用户购物后去了同一个酒吧。然而,现有的绝大多数算法都无法捕捉到 POI 和类别之间的跨模式知识。

论文提出了 auto-correlation enhanced multi-modal Transformer network (AutoMTN) 模型。论文使用 Transformer 来捕获 POI 层面的序列连续关系,同时,为了预测下一个 POI 的类别,论文使用了一个双通道的 Transformer 来同时预测 POI 及其类别。

此外,通过对 Transformer 中的 self-attention 进行修改,以捕获子序列之间的依赖关系。

最后,模型的核心是方向性的跨模式自动相关,它关注不同时间步骤的 POI 和类别序列之间的相互作用,并潜移默化地将子序列的信息从一种模式调整到另一种模式。

AutoMTN

模型架构如下图所示:

Embedding Layer

Auto-Correlation Layer

以往的工作主要是基于递归结构的,这总是忽略了非连续访问你的信息。尽管 self-attention 可以捕获点对点的相互作用,但它并不能提取子序列层面的相关信息。因此,论文通过 auto-correlation 来发现子序列之间的依赖关系,聚合类似的子序列。

Dependencies of Sub-sequences
Time Delay Aggregation

对于 POI 和类别序列的嵌入,其自相关机制可以表述为:

Cross-Model Auto-Correlation Layer

Attention Predictor

实验

Datasets

Results

总结

模型利用自相关关注较长时间的 POI 访问轨迹,并把访问子序列纳入考虑,算是主要的创新点,感觉想法还是挺好的。另外在同时预测 POI 和类别的时候,将两者交叉,从消融实验来看确实是有进步,但重点还是在自相关吧。

参考资料

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022-10-08,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 【论文阅读】Next point-of-interest recommendation with auto-correlation enhanced multi-modal transformer network
    • 前言
      • 问题描述
        • OverView
          • AutoMTN
            • Embedding Layer
            • Auto-Correlation Layer
            • Cross-Model Auto-Correlation Layer
            • Attention Predictor
          • 实验
            • Datasets
            • Results
          • 总结
            • 参考资料
            领券
            问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档