【ACL2020】SEEK:一种轻量级的知识图谱嵌入框架

2020-07-01 15:09:54 浏览数 (1)

作者: 林哲乐

方向: 知识图谱、问答

SEEK: Segmented Embedding of Knowledge Graphs

paper:https://arxiv.org/pdf/2005.00856.pdf

code:https://github.com/Wentao-Xu/SEEK

本文提出一种轻量级的知识图谱嵌入框架SEEK

  • 1.引言
  • 2.相关工作
  • 3.SEEK的框架 复杂度分析 与其他方法比较
  • 4.实验
  • 5.总结
  • 6.参考文献

本文的贡献有两个:

  • 提出了「轻量级框架SEEK」,同时满足模型的低复杂性、高表达力
  • 提出了新「打分函数」,同时完成特征整合、关系留存

同时,此模型SEEK强调两个关键特性:

  • 利用足够多的特征进行交叉计算(先分块)
  • 同时在计算时,区别对称关系、非对称关系的特征

名字来源:「S」egmented 「E」mbedding for 「K」Gs (SEEK).

1.引言

知识图谱 (KG)含有大量的实体和关系,表示为三元组(h, r, t),即(头实体 , 关系, 尾实体)。图谱的嵌入(KGE)变成热点之一,对下游任务至关重要(如个性化推荐、问答 等)。图谱嵌入的目标是,把相关三元组映射到低维空间,同时保留潜在的语义信息。现有的KGE模型存在的问题:不能很好地平衡「模型复杂性」(模型参数的数量)和「模型表达力」(获取语义信息的能力),如下分为两类:

  • 模型简单、表达有限 如:TransE、DistMult(简单易用,获取语义信息的能力欠佳)
  • 模型复杂、表达力强 如:TransH、TransR、Single DistMult、ConvE、InteractE (模型复杂,需要大量向量计算,扩展性差)

本文的轻量级KGE框架SEEK有如下特性:「特征有交互」「保留关系特性」「高效的打分函数」

  • 特征交互:把嵌入空间分为多块,让各块之间相互计算(而不用增加模型参数)
  • 关系特性:同时保留对称的、非对称的关系(对称关系:双向关系;非对称关系:单向关系)
  • 打分函数:结合上述两种特征,计算得分(灵感来自于3个模型的打分函数:DistMult、HoIE、ComplEx)

2.相关工作

现有KGE模型(1-2为一类,3-5为一类):

1.TransE:把关系r看作是一种从实体h到实体t的翻译

2.DistMult:用多维线性点积作为得分函数

3.TransH、TransD、 ITransF :TransE升级版,增加参数,将实体和关系映射到不同的语义空间

4.Single DistMult:加大了DistMult嵌入维度的大小

5.ProjE , ConvE,InteractE:采用神经网络,参数很多

3.SEEK的框架

各种打分函数是KGE(knowledge graph embedding)的基础,基于此我们建立了SEEK。本文提出的SEEK模型的参数和TransE、DistMult一样少,却能更好地表达图谱。

3.1打分函数(四种)

一共四种打分函数,逐步进阶

「f~1~」 :点积 (早期方法,过于简单)

r关系,h头实体,t尾实体,第 i 维

「f~2~」 :分块点积(整合了不同分块之间的特征,但把关系统一认为是对称的关系)

将h,t,r都分为k块,每一块的维度是d/k,比如r:

的计算公式如下:

「f~3~」 : 区分对称/非对称关系,「复杂度O(k^2^d)」

奇——非对称关系;偶——对称关系

当k=2时,f~3~的计算方式如图:(当r为偶,代表对称关系,系数都为正;r为奇数,代表非对称关系,系数取决于是否x y ≥ k)

缺点:1.数据驱动型方法 2.计算量大, 一个三元组k^3^次点积运算,时间复杂度O(k^3^d/k) =O(kd)

「f~4~」 :减少多余计算量,「复杂度O(kd)」引入尾实体 t 的索引向量W~ij~

f~4~只需k^2^次点积,则复杂度为y O(k^2^×d/k) = O(kd) 当k=4时,f~4~计算如下:

f~4~的特性:1.超参数k,决定计算复杂度,一般k=4或k=8 2.同时考虑对称/非对称关系 3. 不同分块之间维度可以不同

3.2讨论

复杂度分析

时间复杂度:O(kd) 空间复杂度:O(d)

与其他方法比较

SEEK普适性更强,传统模型如DistMult、ComplEx、HolE等

可以推导,当k = 1 和 k = 2时,以上模型是SEEK的特例

「Proposition 1」 SEEK (k = 1) 等同于DistMult

「Proposition 2」 SEEK (k = 2) 等同于ComplEx 和 HolE

3.3训练

损失函数为-log函数,L2正则化,激活函数sigmoid

Θ:向量嵌入时的参数 Ω:图谱中本来的三元组、生成的负样本三元组

梯度的计算公式:

L目标函数,Θ参数,对f~4~求导时:

4.实验

数据集

FB15K:数据库Freebase的子集

DB100K:DBpedia的一些核心映射

YAGO37:YAGO3的一些核心事实

参数

优化:SGD / AdaGrad

找超参数:grid search方法

分块个数k:k ∈ {1, 2, 4, 8, 16, 20}

嵌入维度D:D ∈ {100, 200, 300, 400}

L2正则系数:λ ∈ {0.1, 0.01, 0.001, 0.0001}

负样本个数:η ∈ {10, 50, 100, 500, 1000}

最优参数:

  • FB15K:k = 8, D = 400, λ = 0.001, η = 1000
  • DB100K:k = 4, D = 400, λ = 0.01, η = 100
  • YAGO37:k = 4, D = 400, λ = 0.001, η = 200
对比实验

相比于SEEK,用f~2~函数,得到「Sym-SEEK」框架。面对连接预测任务,在不同数据集上的效果如下:

k的取值

在数据集FB15K上,k的不同取值对时间、MRR的影响:

由上图可知,k的取值至关重要。k=8时,性能最佳。而运行时间是线性变化的,符合之前的推论,即线性复杂度为O(kd) 。

个例说明

通过某一些个例,来证明模型SEEK的表达能力。在数据集DB100K上,使用打分函数f~1~、f~2~、f~4~后,通过激活函数sigmoid函数,分别得到概率值P~1~、P~2~、P~4~,如下图:

上述三元组中,左边为对称关系,右边为非对称关系。前者的相反关系在测试集为正,P~1~、P~2~、P~4~的值依然较高;而后者的相反关系在测试集为负,却只有概率P~4~较低。原因是,f~1~、f~2~不考虑非对称关系,而f~4~考虑,故得到一个很低的概率值P~4~,表示反转后的关系与原始关系有较大不同。和预设的模型表达力一致。

5.总结

本文提出一个轻量级框架SEEK,利用打分函数,在不增加模型参数的情况下,提高了模型对知识图谱的嵌入表示效果。主要原理是:1.分块并利用不同块之间的特征交叉计算 2.区分并保留多种关系 。同时SEEK是一个普适性更强的模型,DistMult, ComplEx, HolE可作为SEEK的特例。本文从效率、效果、鲁棒性方面阐述了SEEK的性能。

6.参考文献

(主要的参考文献)

[1]:Hongwei Wang, Fuzheng Zhang, Xing Xie, and Minyi Guo. 2018. Dkn: Deep knowledge-aware network for news recommendation. In Proceedings of WWW, pages 1835–1844.

[2]:Xiao Huang, Jingyuan Zhang, Dingcheng Li, and Ping Li. 2019. Knowledge graph embedding based question answering. In Proceedings of WSDM, pages 105–113.

[3]: Antoine Bordes, Nicolas Usunier, Alberto Garcia Duran, Jason Weston, and Oksana Yakhnenko. 2013. Translating embeddings for modeling multi relational data. In Proceedings of NIPS, pages 2787– 2795.

[4]: Bishan Yang, Wen-tau Yih, Xiaodong He, Jianfeng Gao, and Li Deng. 2015. Embedding entities and relations for learning and inference in knowledge bases. In Proceedings of ICLR.

[5]:Zhen Wang, Jianwen Zhang, Jianlin Feng, and Zheng Chen. 2014. Knowledge graph embedding by translating on hyperplanes. In Proceedings of AAAI, pages 1112–1119.

[6]:Yankai Lin, Zhiyuan Liu, Maosong Sun, Yang Liu, and Xuan Zhu. 2015. Learning entity and relation embeddings for knowledge graph completion. In Proceedings of AAAI, pages 2181–2187.

[7]:Rudolf Kadlec, Ondrej Bajgar, and Jan Kleindienst. 2017. Knowledge base completion: Baselines strike back. arXiv preprint arXiv:1705.10744.

[8]:Tim Dettmers, Minervini Pasquale, Stenetorp Pontus, and Sebastian Riedel. 2018. Convolutional 2d knowledge graph embeddings. In Proceedings of AAAI, pages 1811–1818.

[9]:Shikhar Vashishth, Soumya Sanyal, Vikram Nitin, Nilesh Agrawal, and Partha Talukdar. 2019. Interacte: Improving convolution-based knowledge graph embeddings by increasing feature interactions. arXiv preprint arXiv:1911.00219.

[10]:Maximilian Nickel, Lorenzo Rosasco, Tomaso A Poggio, et al. 2016. Holographic embeddings of knowledge graphs. In Proceedings of AAAI, pages 1955–1961.

[11]:Theo Trouillon, Johannes Welbl, Sebastian Riedel, ´ Eric ´Gaussier, and Guillaume Bouchard. 2016. Complex embeddings for simple link prediction. In Proceedings of ICML, pages 2071–2080.

[12]:Baoxu Shi and Tim Weninger. 2017. Proje: Embedding projection for knowledge graph completion. In Proceedings of AAAI, pages 1236–1242.

0 人点赞