6.4 知识图谱推理新进展
6.4.1 时序预测推理
知识推理中的时序预测新应用以 Chen 等人[53] 提出的模型为例。传统的数据流学习主要是从连续和快速更新的数据记录中提取知识结构。在语义网中,数据根据领域知识被建模成本体,而数据流则被表示为本体流。本文通过探索本体流,重新审视有监督的流学习与上下文的语义推理,开发一种对本体语义进行嵌入的模型,解决了时序预测推理中的概念漂移问题(即数据分布的意外变化,导致大多数模型随着时间的推移不太准确)。
数据流学习中的概念漂移问题可以看成数据的语义随着时间的漂移。本体流可以看成随时间变化的本体,也就是语义增强的数据流。在描述逻辑中,本体流包含 TBox (术语成分)和ABox (断言公理)。ABox entailment (蕴涵)是基于ABox中的断言公理推理出的隐含的断言。Snapshot(快照)反映的是本体流中某一时刻的本体,用于对连续的本体流进行离散化建模,而多个随时间连续的快照构成了本体流中的滑动窗口。快照从一个时刻转变到下一个时刻可以看成断言公理的更新,这被称为一阶预测突变;两个快照对于某些蕴涵具有足够大的概率差异,这被称突发预测变化。这两种预测变化构成了语义概念漂移。蕴涵的滑动窗口之间基于规则的一致性度量和预测可以表示和推断这些本体流中的语义概念漂移。
通过将传统机器学习中的特征嵌入扩展到本体语义嵌入,将语义推理和机器学习结合起来,即捕获本体流中的一致性和知识蕴涵的向量,然后在有监督的流学习的上下文中利用这种嵌入来学习模型。该模型被证明对概念漂移(即突然和不一致的预测变化)是稳健的,同时具有通用性和灵活性等特点,可用于增强基本的流学习算法。实验还表明,在模型中,编码语义是一种超越目前最先进模型的方法,具有语义嵌入的模型对知识推理和预测起到重要作用。
6.4.2 基于强化学习的知识图谱推理
基于强化学习的知识图谱推理是新兴的处理知识图谱推理的技术手段。比较有代表性的工作有文献[13]和[54]。
文献[13]将知识图谱推理简化为一个“事实判断”(Fact Prediction)问题,提出了DeepPath 模型。“事实判断”即确定一个三元组是否成立。文献作者将“事实判断”看作是这样一个问题:寻找一条能连接已知头实体h和尾实体t的路径。文献作者将此问题建模为序列决策问题,并利用基于策略梯度的强化学习方法REINFORCE求解。
具体而言,强化学习中智能体的状态被定义为当前节点实体和目标节点实体的联合表示
st =(et ,etarget −et ).
智能体的动作则是在当前节点实体的出边(Outgoing edge)中选择一个适当的边作为组成路径的关系。在选择动作后,智能体的状态会随即更新。在奖励函数设计方面,文献作者同时考虑了准确率、路径效率和路径多样性。实验证明,DeepPath能学习到等价的推理路径,相比基于表示学习的方法,有更好的可解释性和推理效果。
文献[54]考虑更有难度的“查询问答”(Query Answering)问题,提出了 MINERVA模型。与“事实判断”相比,“查询问答”无法预知答案对应的尾实体,需要从知识图谱中寻找可作为答案的尾实体。在这类知识图谱推理问题中,需要尽可能避免遍历大规模知识图谱,影响算法的效率。
文献作者将这类问题建模成部分可观察的马尔科夫决策过程(POMDP)。我们可以想象一个智能体在知识图谱上游走,寻找目标尾实体。智能体的当前状态与它所处的当前实体有关,其动作即该实体可选的出边。尽管整个知识图谱中的关系总数可能繁多,但具体到某一实体,可选的出边往往减少一个或两个数量级,可大幅降低遍历的规模。
实验结果表明:在这类“查询问答”的推理任务上,MINERVA 模型远远超过了未使用强化学习的基于随机游走的模型。同时,当路径较长时,仍有良好的表现,具有鲁棒性。
6.4.3 基于元学习的少样本知识图谱推理
在以往常见的基于表示学习的推理模型中,往往都会利用大量的数据对模型进行训练,并且当前大多数的研究都会假设对于其实验使用的知识库,所有的关系都有充足的三元组用来训练。但在真实的知识图谱中,有大量的关系仅仅具有非常少的三元组实例,称这种关系为长尾关系(Long-Tail Relation),这类关系多被以往的研究忽视。但事实上,对于某一个关系,其具有的三元组实例越少,其对知识图谱的补全越有利用的价值。
元学习的目的是解决“学习如何学习”(Learning to Learn),旨在通过少量样本迅速完成学习,其相对主要的应用是少样本学习(Few-Shot Learning)。当前主要的元学习方法分为三类,基于度量(Metric-Based)、基于模型(Model-Based)和基于优化(Optimization-Based)的方法。关于元学习的研究,一开始主要应用于图像分类[55-57] ,研究者近来尝试使用元学习的方法解决知识图谱中有关长尾关系的推理。
XIONG 等人[58] 提出了使用基于度量的方法对长尾关系做少样本的链接预测,也就是在某一种关系的样本实例较少的情况下,通过头实体和关系对尾实体进行预测。HAN 等人[59] 确切地描述了关系分类的少样本学习任务,并提出了一个用于测试少样本关系分类(Few-Shot Relation Classification)的数据集FewRel,在将近来效果突出的少样本学习模型应用于该数据集后,对少样本知识图谱推理的难点进行了分析。
把元学习应用于少样本知识图谱推理的研究还相对较少,该领域还有很多可以挖掘和研究的地方。
6.4.4 图神经网络与知识图谱推理
近年来提出的图神经网络(Graph Neural Networks,GNNs)主要用于处理图结构的数据,随着信息在节点之间的传播以捕捉图中节点间的依赖关系,其图结构的表示方式使得模型可以基于图进行推理。而知识图谱作为一种典型的图结构数据,图神经网络在知识图谱的表示学习和推理方面贡献颇多,如知识库补全(链接预测、实体分类)等任务。
Takuo Hamaguchi [60] 主要针对KG中的OOKB(out-of-knowledge-base)实体进行知识库补全等任务。OOKB 实体,即在训练过程中未被训练到的实体,无法得到其 Embedding表示,从而无法预测其与知识库中其他实体之间的关系。而文中将知识库补全的任务定义为:基于知识库中已存在的三元组和当前出现的包含新实体的三元组,推理当前新实体与知识库中其他实体之间的关系。基于此,可以通过知识库中现有的实体表示推理得到OOKB实体表示。因此,这篇文献利用GNN中节点表示的方式,以OOKB实体分别为头实体、尾实体的三元组集合为周围邻居,对当前 OOKB 实体进行表示。每个实体节点经GNN的信息传播获取新的表示。基于此,通过TransE等经典模型,进行知识库补全任务。
Schlichtkrull[61] 利用R-GCNs(Relational Graph Convolutional Networks)进行链接预测和实体发现等任务。本文的思想同样基于已知实体或关系在图结构中周围节点的结构,推理得到未知节点的表示,从而可对知识库中缺失的实体获取它们的 Embedding 向量。同时,结合 TransE 和 DisMult 等表示学习模型,进行知识库中缺失元素的补全任务。文献提出的 R-GCNs,基于 GCN 进行图中节点信息的传播,同时考虑到真实知识库场景中的多关系类型数据,本文提出了两个正则化的优化方法,以此对由不同类型的关系连接的实体进行表示。实验结果证明,本文提出的方法对比传统的表示学习模型具有很大的提升。
GNN 模型的引入丰富了知识库中实体和关系元素的表达,尤其是在得到未知实体或关系的表示等方面具备一定的推理能力,针对目前在知识图谱表示学习和推理等方面遇到的问题,相信GNN一定能发挥出重要的作用。