KDD'22 | 自监督超图Transformer构建推荐系统

2022-09-19 11:53:25 浏览数 (1)

标题:Self-Supervised Hypergraph Transformer for Recommender Systems 链接:https://arxiv.org/pdf/2207.14338.pdf 代码:https://github.com/akaxlh/SHT 会议:KDD 2022 学校:港大

1. 导读

现有基于 GNN 的推荐系统的思想是递归地执行沿用户-商品交互边传递消息,从而得到相应的embedding。尽管它们很有效,但大多数当前的推荐模型都依赖于充足且高质量的训练数据,因此学习的表征可以很好地捕捉用户偏好。许多实际推荐场景中的用户行为数据通常是嘈杂的并且呈现出偏态分布,这可能导致基于 GNN 的模型中的表征性能欠佳。本文提出了 SHT,自监督超图Transformer框架 (SHT),它通过以显式方式探索全局协作关系来增强用户表征。具体来说,利用图协同过滤范式使用超图Transformer来维持用户和商品之间的全局协作效果。利用提炼的全局上下文,提出了一种跨视图生成自监督学习组件,用于在用户-商品交互图上进行数据增强,以增强推荐系统的鲁棒性。

2. 方法

image.png

2.1 局部图结构学习

首先,将用户和商品嵌入到 d 维潜在空间中,以编码他们的交互模式。对于用户

u_i

和商品

v_j

,分别生成embedding向量

e_i,e_j in mathbb{R}^d

。聚合所有用户和商品embedding构成相应的矩阵

E^{(u)} in mathbb{R}^{I times d}

E^{(v)} in mathbb{R}^{J times d}

局部结构的学习采用常见的图神经网络方式,将每个节点的相邻子图结构编码为图拓扑感知embedding,以将拓扑位置信息注入图Transformer。SHT 采用了一个两层的轻量级图卷积网络,如下所示,其中

bar{mathcal{A}}

表示标准化后的图邻接矩阵,计算方式为

overline{mathcal{A}}_{i, j}=mathcal{A}_{i, j} /left(mathbf{D}_{i}^{(u) 1 / 2} mathbf{D}_{j}^{(v) 1 / 2}right)

,D分别为用户和商品的度矩阵。

overline{mathbf{E}}^{(u)}=operatorname{GCN}^{2}left(mathbf{E}^{(v)}, mathcal{G}right)=overline{mathcal{A}} cdot overline{mathcal{A}}^{top} mathbf{E}^{(u)} overline{mathcal{A}} cdot mathbf{E}^{(v)}

2.2 超图Transformer学习全局关系

SHT 采用了超图Transformer框架,

  • i) 通过使用自适应超图关系学习增强用户协作关系建模来缓解噪声问题;
  • ii) 将知识从密集的用户/商品节点迁移到稀疏节点。

具体来说,SHT 使用了类似于 Transformer 的注意力机制,用于结构学习。编码的图拓扑感知embedding被注入到节点表征中以保留图局部性和拓扑位置。同时,多通道注意力进一步促进在 SHT 中的结构学习。

SHT 通过将对应于id的embedding(

e_i,e_j

)与拓扑感知embedding结合生成输入的用户和商品embedding,表示如下,然后,SHT 使用

tilde{e}_i,tilde{e}_j

作为输入进行基于超图的信息传播和超图结构学习。利用K个超边从全局角度提炼协作关系。

tilde{e}_i=e_i bar{e}_i; tilde{e}_j=e_j bar{e}_j

2.2.1 节点到超边的信息传播

商品和用户的表示是类似的,这里以用户节点为例。从用户节点到用户侧超边的传播可以表示如下,其中

tilde{z}_k

表示第k条超边的embedding,通过拼接H个头的超边embedding得到,通过注意力机制计算得到H个头的embedding。

tilde{mathbf{z}}_{k}=|_{h=1}^{H} overline{mathbf{z}}_{k, h} ; quad overline{mathbf{z}}_{k, h}=sum_{i=1}^{I} mathbf{v}_{i, h} mathbf{k}_{i, h}^{top} mathbf{q}_{k, h}

q,k,v的计算方式如下,Z为K条超边的embedding矩阵,K,V为相应的权重

mathbf{q}_{k, h}=mathbf{Z}_{k, p_{h-1}: p_{h}} ; quad mathbf{k}_{i, h}=mathbf{K}_{p_{h-1}: p_{h},:}, tilde{mathbf{e}}_{i} ; quad mathbf{v}_{i, h}=mathbf{V}_{p_{h-1}: p_{h},:}, tilde{mathbf{e}}_{i}

为了进一步挖掘超边之间复杂的非线性特征交互,SHT 在用户侧和商品侧都增加了两层分层超图神经网络。最终的超边embedding通过以下方式计算,H为可学习参数,

hat{Z}=HHGN^2(tilde{Z}),HHGN(X)=sigma(mathcal{H}cdot X X)

2.2.2 超边到节点的信息传播

使用最终的超边embedding

hat{Z}

,通过类似但相反的过程将信息从超边传播到用户/商品节点,

tilde{e}'_i

为用户

u_i

的新embedding,q,k,v的计算方式与前面类似,具体公式如下,

tilde{mathbf{e}}_{i}^{prime}=|_{h=1}^{H} overline{mathbf{e}}_{i, h}^{prime} ; quad overline{mathbf{e}}_{i, h}^{prime}=sum_{k=1}^{K} mathbf{v}_{k, h}^{prime} mathbf{k}_{k, h}^{prime top} mathbf{q}_{i, h}^{prime}
mathbf{q}_{i, h}^{prime}=mathbf{k}_{i, h} ; quad mathbf{k}_{k, h}^{prime}=mathbf{q}_{k, h} ; quad mathbf{v}_{k, h}^{prime}=mathbf{V}_{p_{h-1}: p_{h},:}hat{mathbf{z}}_{k}

2.2.3 交替超图传播

通过堆叠多个超图Transformer层来进一步传播编码的全局协作关系。通过这种方式,SHT 框架可以通过迭代超图传播来表征远距离用户/商品依赖关系。以第

l-1

次迭代中的embedding表

tilde{E}_{l-1}

作为输入,SHT 递归地应用超图编码(由 HyperTrans(·) 表示)并获得最终节点embedding

hat{E}

,公式如下,

tilde{E}_l=HyperTrans(tilde{E}_{l-1});hat{E}=sum_{l=1}^L{tilde{E}_l}

预测用户

u_i

和商品

v_j

的分数为

p_{i,j}=hat{e}_i^{(u)top}hat{e}_j^{(v)}

2.3 局部全局自增强学习

超图Transformer可以解决数据稀疏的问题,但是,用于局部协作关系建模的图拓扑感知embedding可能仍会受到交互数据噪声的影响。为了应对这一挑战,作者通过局部拓扑感知embedding和全局超图学习之间的自增强学习来增强模型训练。具体来说,用于局部信息提取的拓扑感知embedding增加了一项额外的任务,以区分观察到的用户-商品交互图中采样边的稳固性。这里,solidity 是指边没有噪声的概率,它在增强任务中的标签是根据学习到的超图依赖关系和表征来计算的。通过这种方式,SHT 将知识从超图Transformer中的高级和去噪特征迁移到低级和嘈杂的拓扑感知embedding,这有助于重新校准局部图结构并提高模型的鲁棒性。流程如图 2 所示。

2.3.1 元网络的 Solidity 标签

在SHT 模型中,学习的超图依赖表征可以作为有用的知识,通过将每条边与学习的可靠性分数相关联来对观察到的用户-商品交互进行降噪。具体来说,在估计边

(u_i,v_j)

的可靠性分数时重用key embedding

k_{i,h},k_{j,h}

来表示用户

u_i

和商品

v_j

。这是因为key向量是为关系建模而生成的,可以被认为是交互可靠性估计的有用信息源。此外,将超边embedding Z,将全局特征引入到可靠性标记中。具体来说,首先连接多头key向量并应用一个简单的感知机来消除用户/商品超边关系学习和用户-商品关系学习之间的差距。更新的用户/商品embedding计算方式如下,其中

phi

为感知机,

Gamma_{i}=phi^{(u)}left(|_{h=1}^{H} mathbf{k}_{i, h}right) ; quad Gamma_{j}=phi^{(v)}left(|_{h=1}^{H} mathbf{k}_{j, h}right)
phi(mathbf{x} ; mathbf{Z})=sigma(mathbf{W} mathbf{x} mathbf{b}) ; quad mathbf{W}=mathbf{V}_{1} overline{mathbf{z}} mathbf{W}_{0} ; quad mathbf{b}=mathbf{V}_{2} overline{mathbf{z}} mathbf{b}_{0}

使用更新的用户/商品embedding

Gamma_i,Gamma_j

,SHT 通过两层神经网络计算边

(u_i,v_j)

的可靠性标签,如下所示,

s_{i, j}=operatorname{sigm}left(mathbf{d}^{top} cdot sigmaleft(mathbf{T} cdotleft[Gamma_{i} ; Gamma_{j}right] Gamma_{i} Gamma_{j} mathbf{c}right)right)

其中

s_{i,j}

表示超图Transformer给出的可靠性分数。sigm(·) 表示限制

0 人点赞