本周精选GNN论文 | 来自西湖大学、南京大学、国防科大、华为诺亚方舟实验室、莱斯大学等机构前沿论文研究

2023-03-01 15:23:33 浏览数 (1)

图神经网络(GNN)是一类专门针对图结构数据的神经网络模型,在社交网络分析、知识图谱等领域中取得了不错的效果。近来,相关研究人员在GNN的可解释性、架构搜索、对比学习等方面做了很多探究。

本周精选了10篇GNN领域的优秀论文,来自西湖大学、南京大学、国防科大、华为诺亚方舟实验室、莱斯大学等机构。

为了方便大家阅读,只列出了论文标题、作者、链接等信息,如果感兴趣可扫码查看原文,PC端数据同步(收藏即可在PC端查看),每日新论文也可登录小程序查看。

1. Explaining Graph Neural Networks via Non-parametric Subgraph Matching论文详情页

作者:Fang Wu,Siyuan Li,Lirong Wu,Dragomir Radev,Yinghui Jiang,Xurui Jin,Zhangming Niu,Stan Z. Li

AI华同学综述(大模型驱动):图神经网络的大规模成功促使人们对解释能力的问题提出质疑。我们提出了一种新的非参数化子图匹配框架,名为Match解析器。它将目标图与相邻的替代实例相结合,并通过最小化基线距离来识别最重要的双元组件。此外,我们注意到,目前的方法通常面临误报反馈问题。为了解决这个问题,我们设计了一个叫做MatchDrop的新增量范式。

2. AutoAC:Towards Automated Attribute Completion for Heterogeneous Graph Neural Network论文详情页

作者:Guanghui Zhu,Zhennan Zhu,Wenjie Wang,Zhuoer Xu,Chunfeng Yuan,Yihua Huang

AI华同学综述(大模型驱动):我们提出了一种自动完成操作搜索的新框架。首先,我们提出了一个表达式结束操作搜索空间,包括对数线性规划和对数线性规划独立的结束操作。然后,我们提出了一种迭代松弛模式,并进一步引入了两种优化技术:局部约束和辅助无监督图节点聚类算法。实证结果表明,AutoAC优于SOTA手工制作的异构GNN。为了提高搜索效率,我们利用了两个优化技术:局部约束和辅助无监督图节点聚类。

3. Cluster-guided Contrastive Graph Clustering Network论文详情页

作者:Xihong Yang,Yue Liu,Sihang Zhou,Siwei Wang,Wenxuan Tu,Qun Zheng,Xinwang Liu,Liming Fang,En Zhu

AI华同学综述(大模型驱动):相比学习在深图聚类领域取得了有竞争力的性能。然而,我们注意到两个缺陷导致现有算法进一步改进的能力限制了现有算法的改进能力。1)质量的积极样本高度依赖于精心设计的数据扩充,而不恰当的数据扩充会很容易导致语义颠倒和歧视性阳性样本。2)构建假阳性样本对于忽略重要的聚类信息是不可靠的。为了解决这些问题,我们提出了一种带集成特征向量化深度图聚类网络(CCGC),该网络利用来自两侧高风险聚类的信息来建模两个图的观点。然后,基于高风险聚类信息,通过设计特殊的萨摩亚解码器,我们选择并从同一高风险聚类中选取相同的高风险聚类中的正面样本。

4. Neighbor Auto-Grouping Graph Neural Networks for Handover Parameter Configuration in Cellular Network论文详情页

作者:Mehrtash Mehrabi,Walid Masoudimansour,Yingxue Zhang,Jie Chuai,Zhitang Chen,Mark Coates,Jianye Hao,Yanhui Geng

AI华同学综述(大模型驱动):在本文中,我们提出了一种基于学习的手动参数配置的学习框架。该框架利用了不同的网络状态和参数值来模仿不同组件对网络的反应。它可以成功地解决局部多项式优化问题,并产生更好的网络质量和可靠性。它可以显著降低因人工干预和维护成本而产生的工程费用。

5. Relational Attention: Generalizing Transformers for Graph-Structured Tasks论文详情页

作者:Cameron Diao,Ricky Loynd

AI华同学综述(大模型驱动):本文描述了一种用于对图结构化数据进行推理的关系转换器。该变体在各种图结构化的任务上表现出优于最先进的基于字符串的机器学习算法。我们评估了这种关系转换器的性能,并表明它比最先进的基于字符串的机器学习算法具有更好的表达能力。

6. Faithful and Consistent Graph Neural Network Explanations with Rationale Alignment论文详情页

作者:Tianxiang Zhao,Dongsheng Luo,Xiang Zhang,Suhang Wang

AI华同学综述(大模型驱动):图神经网络预测的推理框架在过去几年中受到了越来越大的关注。我们提出了一种新的解释范式,它利用潜在变量(如分布转换)和来自原始输入的多种因素对预测进行了改进。为了解决这个问题,我们从因果关系的角度研究了GNN的预测。首先,我们定义了一个基本假设:给定一个概率模型,该模型会产生与原始数据相似的输出。然后,我们将这些结果应用于解释弱监督的GNN,以使它们能够提供一致的解释。

7. Randomized Message-Interception Smoothing: Gray-box Certificates for Graph Neural Networks论文详情页

作者:Yan Scholten,Jan Schuchardt,Simon Geisler,Aleksandar Bojchevski,Stephan Günnemann

AI华同学综述(大模型驱动):我们提出了一种新的隐马尔可夫信托协议,该协议利用了感知器传递原则。与现有的许可证相比,它对更强大的对手具有更好的保证。我们的许可证在各种模型和数据集上进行了评估,并表明了我们的方法可以显著提高许可证的可行性。

8. GUAP: Graph Universal Attack Through Adversarial Patching论文详情页

作者:Xiao Zang,Jie Chen,Bo Yuan

AI华同学综述(大模型驱动):图神经网络是高效的核学习算法之一。然而,它们的预测能力可能会严重受损。我们开发了一种叫做GUAP的算法,它实现了高攻击成功率,但同时保持了预测准确性。我们证明,每隔一段时间一次的召回率会产生20倍的增益速度。

9. RELIANT: Fair Knowledge Distillation for Graph Neural Networks论文详情页

作者:Yushun Dong,Binchi Zhang,Yiling Yuan,Na Zou,Qi Wang,Jundong Li

AI华同学综述(大模型驱动):在本文中,我们提出了一种新的基于图的神经网络知识提取方法。具体来说,我们首先为基线教师学生框架定义了一个新的知识提取问题。然后,我们提出了一个称为里亚特原则的框架,该框架可以有效地减轻学生模型所面临的偏差。此外,它与任何特定的老师和学生模型结构的无关,因此可以很容易地调整到各种基于图的KD框架中。我们在多个实证数据集上进行了广泛的实证研究,证实了里亚特在保持高预测价值的情况下达到了较低的偏差。

10. Graph Neural Networks for Link Prediction with Subgraph Sketching论文详情页

作者:Benjamin Paul Chamberlain,Sergey Shirobokov,Emanuele Rossi,Fabrizio Frasca,Thomas Markovich,Nils Hammerla,Michael M. Bronstein,Max Hansmire

AI华同学综述(大模型驱动):许多图生成网络(GNNs)在Link预测(LP)任务中表现不佳。这主要是由于无法区分具有相同的结构角色的梯度,以及由于它们不能区分自旋和自旋节点。两种表达能力问题可以通过学习桥梁(而不是节点)表示来消除,并结合结构特征,如三叉数。最近的工作侧重于基于子段的方法,这些方法在LP中取得了最先进的性能,但由于子段之间的冗余率很高,会导致效率低下。我们分析了基于子句的桥梁方法的组成部分。

0 人点赞