检索到了两篇关于推荐系统的论文,一篇是关于在知识图上改进负采样策略的,另一篇是在图上进行对抗学习的综述。
Reinforced Negative Sampling over Knowledge Graph for Recommendation
关键字:强化学习 知识图 矩阵分解
概述:正确处理缺失数据是推荐场景中的一项基本挑战。目前的大多数工作都是从未观察到的数据中进行负采样,从而为推荐模型的训练提供负样本。但是,现有的静态或自适应负采样策略不足以产生高质量的负采样,也不利于模型训练和反映用户的实际需求。
在该项工作中,其假设项目知识图(KG)提供了项目与KG实体之间的丰富关系,可能有助于推断富含信息量的和真实的负样本。为此,其开发了一个新的负抽样模型,即“知识图策略网络(KGPolicy)”,该模型可作为强化学习代理来探索高质量的负样本。具体而言,通过执行设计的探索操作,它可以从目标正互动中导航,自适应地接收具有知识意识的负信号,并最终产生潜在的负样本来训练推荐系统。
开源代码:
https://github.com/xiangwang1223/kgpolicy
A Survey of Adversarial Learning on Graph
关键字:对抗学习 图表示 综述
概述:图上的深度学习模型在各种图分析任务(例如节点分类,链接预测和图聚类)中均取得了卓越的性能。但是,它们暴露了对设计良好的输入(即对抗性样本)的不确定性和不可靠性。因此,针对不同图分析任务中的攻击和防御都出现了各种研究,从而导致了图对抗学习中的军备竞赛。例如,攻击者具有中毒和逃避攻击,防御小组相应地具有基于预处理和对抗的方法。
尽管这些工作很多,但仍然缺乏统一的问题定义和全面的审查。为了弥合这一差距,该文系统地研究和总结了有关图对抗学习任务的现有工作。具体来说,其调查并统一现有工作在图分析任务中的攻击和防御,并同时给出正确的定义和分类法。此外,还强调了相关评估指标的重要性,并对其进行了全面的调查和总结。
开源代码:
https://github.com/gitgiter/GraphAdversarial-Learning