【论文阅读】Next point-of-interest recommendation with auto-correlation enhanced multi-modal transformer

2022-10-28 10:00:56 浏览数 (1)

【论文阅读】Next point-of-interest recommendation with auto-correlation enhanced multi-modal transformer network

Metadata

authors:: Yanjun Qin, Yuchen Fang, Haiyong Luo, Fang Zhao, Chenxing Wang container:: Proceedings of the 45th international ACM SIGIR conference on research and development in information retrieval year:: 2021 DOI:: 10.1145/3477495.3531905 rating:: ⭐⭐⭐⭐ share:: false comment:: 框架为 Transformer,计算序列自相关性,并考虑访问子序列,同时预测 POI 及其类别

前言

2022,SIGIR: Next point-of-interest recommendation with auto-correlation enhanced multi-modal transformer network

问题描述

OverView

之前工作中存在的问题:

  1. 以往基于 RNN 的方法仅限于短期的连续访问,也就是说,它们几乎没有对时间线上远处的访问之间的隐性联系进行建模。
  2. 相似子序列在以前的方法中没有被重视。如图所示,绿圈和红圈中出现了相似的访问子序列。
  1. POI 的类别和位置之间的交互是很重要的,因为下一个位置会受到类别的影响,如上图中用户购物后去了同一个酒吧。然而,现有的绝大多数算法都无法捕捉到 POI 和类别之间的跨模式知识。

论文提出了 auto-correlation enhanced multi-modal Transformer network (AutoMTN) 模型。论文使用 Transformer 来捕获 POI 层面的序列连续关系,同时,为了预测下一个 POI 的类别,论文使用了一个双通道的 Transformer 来同时预测 POI 及其类别。

此外,通过对 Transformer 中的 self-attention 进行修改,以捕获子序列之间的依赖关系。

最后,模型的核心是方向性的跨模式自动相关,它关注不同时间步骤的 POI 和类别序列之间的相互作用,并潜移默化地将子序列的信息从一种模式调整到另一种模式。

AutoMTN

模型架构如下图所示:

Embedding Layer

Auto-Correlation Layer

以往的工作主要是基于递归结构的,这总是忽略了非连续访问你的信息。尽管 self-attention 可以捕获点对点的相互作用,但它并不能提取子序列层面的相关信息。因此,论文通过 auto-correlation 来发现子序列之间的依赖关系,聚合类似的子序列。

Dependencies of Sub-sequences
Time Delay Aggregation

对于 POI 和类别序列的嵌入,其自相关机制可以表述为:

Cross-Model Auto-Correlation Layer

Attention Predictor

实验

Datasets

Results

总结

模型利用自相关关注较长时间的 POI 访问轨迹,并把访问子序列纳入考虑,算是主要的创新点,感觉想法还是挺好的。另外在同时预测 POI 和类别的时候,将两者交叉,从消融实验来看确实是有进步,但重点还是在自相关吧。

参考资料

  • [1] Next point-of-interest recommendation with auto-correlation enhanced multi-modal transformer network

0 人点赞