[KDD 2020] 双通道超图协同过滤

2022-03-18 10:45:55 浏览数 (1)

论文:Dual Channel Hypergraph Collaborative Filtering 下载地址:https://dl.acm.org/doi/pdf/10.1145/3394486.3403253

1. 背景介绍

协同过滤是在推荐领域非常普及的一种基础建模方式,传统协同过滤存在两个主要问题:1. user 和 item 之间的高阶相关性建模不充分;2. User-Item 建模不灵活,没有刻意对 user 节点和 item 节点进行语义区分,而是直接将 user 和 item 进行同质计算。

针对以上两个问题,论文提出了双通道超图卷积网络协同过滤的框架DHCF(Dual Channel Hypergraph Collaborative Filtering):

1. 为了学习到高阶相关性,在 channel 内部学习时,DHCF 使用超图来显式地建模 user、item 中的高阶相关性。同时论文还提出了一种新的跳跃超图卷积(JHConv)方法,通过引入先验信息来有效地基于信息传播机制学习embedding;

2. 为了学习到 user 和 item 各自不同 embedding 表示方式,在协同过滤的框架中引入了divide-and-conquer 分治策略,双方先划分为 user channel 和 item channel ,channel内部各自自主学习,最后再统一集成输出。这样在保持它们的特定属性的情况下,形成一个双通道协同过滤框架。

2. 方法介绍

2.1 基本定义

Hypergraph主要特点是一条边可以连接任意数量的顶点,即一个点集。给定一个超图 ,其中 即一个普通顶点集(不是点集的集合), 是超边组成的集合(一条边可能对应多个点)。可以用关联矩阵 来表示超图中的连接。其中 是关联矩阵中的元素,其表示如下

其中有 和 ,对超图定义点度 和边度 。最后可以定义点度对角矩阵 ,和边度对角矩阵 。

有了超图之后可以定义超图卷积,给定超图关联矩阵 和第 层节点特征向量矩阵 。则定义超图卷积如下

其中 是可学习参数,它将第 层经过卷积操作后的特征向量映射成第 层激活函数 σ 的输入。整个式子可以理解为两阶段消息传递机制,传播路径为vertex-hyperedge-vertex。

首先关联转置矩阵 把点信息传递到超边。 将超边信息传递到点。注意式子中间的对角度矩阵 和 起了正则化的作用,不影响消息传递可以被忽略。超图(HyperGraph)自然具有建模高阶连接的能力。此外,超图卷积可以处理高阶相关结构,作为一种有效而深入的操作。

2.2 通用 DHCF 框架

DHCF首先对于user和item各自学习了两组embedding。在学习到了embedding的基础上,再进一步通过user-item的embdding点积来拟合user-item的交互偏好矩阵。通过拟合拟合user-item的交互偏好矩阵,DHCF能学习到user 对 item 的偏好。

给定 个user和 个item的交互数据,首先构造超图关联矩阵 ,并初始化user embedding向量 和item embedding向量 ,DHCF框架大体分为两个阶段:

阶段1 - High-order Message Passing,高阶信息传递。此处对特征向量进行卷积);

阶段2 - Joint Message Updating,联合信息更新。此处对卷积后的特征向量通过参数 进行全连接操作,再通过激活函数 ,此处参数 在双通道之间是共享的。

2.3 高阶连通定义

下面定义高阶连通 High-Order Connectivity。给定user-item的二部图交互关联矩阵 ,基于这个关联矩阵我们能够构造出用于模型训练的超图关联矩阵。

定义1:item 的 k 阶可达 item,在 user-item 交互矩阵中,如果存在一系列相邻节点在item_i 和 item_j 中,并且路径上的 item 数量小于k,item_i 是 item_j的 k 阶可达 item。

定义2:item 的 k 阶可达 user,在 user-item 交互矩阵中,如果存在一系列相邻节点在 item_i 和 user_j 中,并且路径上有 item_i 的 k 阶可达 item,user_j是 item_i 的,k 阶可达 user。

Item的K阶可达item,有如下数学公式表示

Item的k阶可达user,有如下数学公式表示

定义 || 为连接操作,user超图关联矩阵 ,可通过如下数学公式表示

论文里只考虑了1阶、2阶连接,下图给出了如何构造user超图关联矩阵。

通过对称定义的方式,可以得到item超图关联矩阵 。总结数学表达式如下

2.4 模型定义

本文使用的一个关键结构 Jump Hypergraph Convolution,在最初的超图卷积的基础上添加一个skip connect的连接,起到类似于ResNet中防止过深网络不可训练的效果,其数学表达式如下所示(本论文中最终采用的卷积方式还有略微不一样):

模型最终的数学结构可以如下表示,phase 1 对应 High-order Message Passing,phase2 对应 Joint Message Updating。

采用 pairwise Bayesian Personalized Ranking (BPR)loss来优化模型,如下所示

3. 实验

3.1 数据集设置

使用数据集如下,其中Baidu-feed和Baidu-news都是从真实数据集上随机抽取的,MovieLens 和 CiteUlike-A 则为公开数据集。

3.2 基线

选取的对比算法基线为 BPR-MF,GC-MC,PinSage,NGCF 等比较有代表性的建模方法,细节见下列各算法原文的引用。

3.3 实验结果

论文的实验,首先在四个数据集上,对比了准确率,召回率,ndcg,hit 等四个指标下和基线的差别,然后设计了消融实验验证几个主要设计对效果的影响,主要消融的部分为:skip-connection、网络层数、高阶连接。

1. 下表为 DHCF 对比基线的实验结果,在4个数据集的4个指标上都有最好的表现;

2. 下表为是否添加 skip-connection 对实验结果的影响;

3. 下表为不同网络层数对实验效果的影响;

4. 下表为是否添加高阶连接建模对实验效果的影响,在 User 侧和 Item 侧都添加的效果最佳;

4. 创新点

分 User 和 Item Channel 进行学习,形成一个双通道协同过滤框架,同时使用超图来显式地建模 user、item 中的高阶相关性,以更合理的方式对图所包含的信息进行提取。

扩展阅读:

https://blog.csdn.net/qq_44015059/article/details/108910037

0 人点赞