今天学习的是 KDD18 的一篇论文《Graph Convolutional Matrix Completion》,作者是阿姆斯特大学的同学,Thomas N. Kipf 大佬是二作。
前面我们介绍了 Kipf 大佬利用变分自编码器(VGAE)来完成链接预测问题,链接预测问题放在矩阵中可以被认为是矩阵补全。这篇论文在 VGAE 的基础上提出了 GCMC 模型,设计了一个可微的基于消息传递的图自编码框架进行矩阵补全(matrix completion),同时考虑边信息和网络结构,并分析了边信息在推荐系统冷启动的影响。
1.Introduction
先简单介绍下二部图(bipartite graph)。
二部图是一种特殊的图结构,所有的顶点可以被分割为两个互不相交的子集(U,V),并且每条边
所关联的顶点
分别属于这两个不同的顶点集合
。
二部图的应用非常广泛,比如说电影推荐这样的交互数据则可以用一个二部图来表示(user-movie),图的边则是用户对电影的评分,此时的矩阵补全就是预测用户的观看后的评分。
作者在这篇论文中提出的 GCMC 框架是一种对矩阵进行补全的图自编码框架,其利用 user 和 item 的交互信息生成 user 和 item 之间的隐特征,并通过双线性解码器来重建 user 和 item 之间的链接。
这篇论文的主要贡献主要有两点:
- 将 GNN 应用于带有 side information 的矩阵补全任务中,并证明基于消息传递的模型比之前的复杂模型具有更好的性能;
- 引入了 Dropout 正则化技术:以一定概率删除单个节点的所有传出消息。
2.GCMC
下图为 GCMC 的基本流程,在二部图的矩阵补全任务转换成比链接预测问题,并使用端到端的图自编码器进行建模:
2.1 Graph convolutional encoder
首先来看编码器。
本文针对推荐任务提出了图卷积编码器,其能够有效的利用卷积操作的权值共享。图数据的局部卷积操作只考虑节点的直接邻居,因此可以应用于图数据中的所有位置。
我们也知道,局部图卷积可以看作是一种消息传递,节点的特征值沿着边进行传递和转换。作者设计了一种基于评分等级的转换,从 item j 到 user i 的信息传递被定义为:
其中,
为正则化常数,可以为左正则化
也可以为对称正则化
。
表示 user i 的邻居集合;
为基于边类型(评分等级)的参数矩阵;
表示 item j 的特征向量。
从 user 到 item 的消息传递也可以采用类似的方式,这个过程称为图卷积层。
在消息传递完成之后,每一个节点都会对消息进行累积操作:
其中,
为聚合运算,如 stack、sum 等;
为激活函数。
对
进行转换便能得到 user 的 Embedding:
其中,W 为参数矩阵。
计算 item 的 Embedding
方法类似,并共享参数矩阵,这个过程称为稠密层。
在实验过程中,堆叠图卷积层并不能提高效果,但是在卷积层后连一个稠密层效果会好很多。
2.2 Bilinear decoder
再来看下解码器。
作者提出了一个双线性解码器(bilinear decode),把用户对物品的评分等级视为多类。
表示为 user 和 item 之间重构的评分矩阵。解码器可以通过对可能的评分等级进行双线性运算,然后用 softmax 函数生成一个概率分布:
其中,
是一个可训练的参数共享矩阵(后面进行介绍),H 为节点的隐特征的维度。
预测的评分等级的计算方式为:
2.3 Model train
然后看一下模型训练。
「考虑 Loss Function」
使用交叉熵损失函数:
其中,
为指示函数,
是为 1,否则为 0;
用来表示链接是否存在,其作用类似 mask;
「考虑 Mini-batch」
- 对于不同评分类别将进行固定数量的 pair-wise 采样,一来减少训练所需内存,二来达到了正则化的效果;
- 通过通过实验验证了 mini-batch 和 full-batch 的效果类似;
- 在大数据集中应用了 mini-batch,而在小数据中应用 full-batch 以获得更快的收敛速度。
「考虑 Node Dropout」
- 为了泛化模型,作者在训练过程中将以一定概率随机删除节点的所有传出信息;
- 实验表明,节点 Dropout 比消息的 Dropout 更有效。
「考虑 weight sharing」
- 考虑 user 对 item 打分的非均匀性,防止权重矩阵
的列优化不均匀,作者使用了一种在不同评分关系之间进行参数共享的方法:
其中,
为基础矩阵,评分越高,
包含的
数量越多。作者称之为序数权值共享(ordinal weight sharing)。
解码器中的权重矩阵
就是采用一组基于基础参数矩阵的线形组合的参数共享矩阵:
其中,
表示基权重矩阵
的数量;
为可学习的系数。
为避免过拟合,同时减少参数的数量,基权重矩阵的数量要小于评分级别的数量。
2.4 Feature representation and side information
考虑建模时的除了节点表征外的辅助信息(side info),以 user 节点为例:
其中,
和
为可训练的权重矩阵;
为一个 bias,
为节点 i 的辅助信息。
item 节点同理,把 u 改成 v 即可。
3.Experiments
简单看一下实验。
先看下数据集:
然后是不同模型在 ML-100K 上的表现,评分标准为 RMSE:
数据集大一点的情况下:
效果不满意再试一下其他数据集:
效果满意了,我们再分析下冷启动:
4.Conclusion
总结:GCMC 利用基于消息传递的图卷积网络将节点特征编码为隐特征,并利用双线形解码器预测未知边的不同评分值的概率评分,并取其期望作为边的预测评分。
5.References
- Berg R, Kipf T N, Welling M. Graph convolutional matrix completion[J]. arXiv preprint arXiv:1706.02263, 2017.
- [Github:gc-mc]