作者 | 滕赛赛 编辑 | 赵晏浠
论文题目
Self-supervised Graph Neural Networks via Diverse and Interactive Message Passing
论文摘要
通过将图神经网络(GNNs)解释为从空间角度传递的信息,它们的成功归功于拉普拉斯平滑。然而,它也会导致严重的过平滑问题。近年来,在半监督学习领域,人们正在努力克服这一问题。不幸的是,由于缺乏监督信息,它在无监督节点表示学习任务中效果很差。因此,大多数无监督或自监督的gnn经常使用单层GCN作为编码器。本质上,过平滑问题是由现有消息传递的过度简化引起的,它具有两个内在的限制:盲消息传递和统一传递。本文克服了这些限制,提出了一种新的多样化交互式消息传递(DIMP)用于自监督学习。首先,为了防止消息任意传播,使其在两个连接节点之间交互信息。其次,为了防止均匀性传递,使其在不同的属性通道上传输不同的信息,给消息中的不同元素分配不同的传播权重。DIMP中消息的实现是两个连接节点表示的元素级乘积。从数值优化的角度来看,作者所提出的DIMP等价于通过期望最大化(EM)来执行重叠的检测。检测的目标函数和EM算法的收敛性都保证了DMIP可以防止过平滑问题。对节点级和图级任务的广泛评估表明了DIMP在提高性能和克服过度平滑问题方面的优越性。
论文链接
https://www.aaai.org/AAAI22Papers/AAAI-4030.YangL.pdf