基于知识嵌入的图卷积网络
本文通过建立变体研究了基于 Graph Convolutional Networks 的知识图谱完成模型,在实验中发现了与预期相反的图结构建模并不对模型性能产生显著影响,而实体表示的转换是改善性能的关键因素。作者基于此提出了 LTE-KGE 框架,通过线性转换实体嵌入向现有的 KGE 模型中添加 GCNs 模块以达到类似的性能提升。实验结果表明,与 GCN-based KGC 方法相比,LTE-KGE 模型在性能上有类似的提升,同时更具计算效率。因此,本文表明 GCNs 对于 KGC 并不必要,新型基于 GCNs 的 KGC 模型需要进行更多的消融研究来验证其有效性。
Feb, 2022
本文提出了 Knowledge Graph Convolutional Networks (KGCN) 的方法,通过在知识图谱上挖掘和利用互相关联的属性来有效地捕捉物品之间的相关性,扩展感受野以建模高阶邻近信息,并将邻居信息与偏差相结合计算给定实体的表示,以优化协同过滤型推荐系统的性能。实验结果表明,该方法在电影、图书和音乐推荐的三个数据集上优于强基线算法。
Mar, 2019
我们介绍了关系图卷积网络 (R-GCNs) 并将它们应用于标准的知识库补全任务,包括链接预测和实体分类。R-GCNs 旨在应对实际知识库中高度多关系数据的特点,我们证明了它们作为一个独立模型在实体分类方面的有效性,并进一步证明,通过在关系图中累积多个推理步骤的编码器模型来丰富解码器模型,可以极大地提高因子分解模型 (例如 DistMult) 在链接预测方面的表现 (在 FB15k-237 上的表现提高了 29.8%)。
Mar, 2017
本文中,我们提出了一种新颖的结构感知卷积网络 (SACN),它综合了 GCN 和 ConvE 两种方法,其中,WGCN 使用可学习的权重来聚合邻居节点信息,实现了更准确的图节点嵌入表示;而 Conv-TransE 则使得 ConvE 具有了一定的可解释性,并保持了 ConvE 的预测准确性。我们在标准数据集 FB15k-237 和 WN18RR 上进行了实验,结果表明,与最先进的 ConvE 相比,我们的方法 HITS@1、HITS@3 和 HITS@10 指标上分别提高了 10% 左右。
Nov, 2018
提出了一种名为图知识增强和蒸馏模块的插件,通过多头注意机制提取和聚合图信息以增强节点表示,并能通过特殊设计的注意力蒸馏方法将大型教师模型的知识蒸馏到高性能和紧凑的学生模型中,并通过注意力蒸馏有效地从大型教师网络转移蒸馏知识到小型学生网络。
Mar, 2024
提出一种名为图修正卷积网络(GRCN)的框架,通过引入基于 GCN 的图修正模块来预测缺失边并在下游任务中进行边缘权重修正,以避免过度参数化或简单的重新加权观察到的边缘的问题,并且在六个基准数据集上的实验结果表明,与强基准方法相比,GRCN 始终表现出较大的优势,尤其是原始图严重不完整或用于模型训练的标记实例高度稀疏的情况。
Nov, 2019
本研究提出了 CompGCN,一种新的图卷积框架,可同时嵌入节点和关系,解决了处理多关系图的过度参数化问题,广义了现有的多关系 GCN 方法,取得了节点分类、链接预测和图分类等多个任务的显着优异结果。
Nov, 2019
本文提出一种基于超网络结构的张量分解方法,用于实现知识图谱中链接预测任务,取得了比 ConvE 和所有以前的方法更好的性能表现,同时能够作为张量分解模型的一种简化(相比较于卷积神经网络方法)而得到推广。
Aug, 2018
本文提出了一种基于图嵌入网络的符号知识应用方法,该方法将命题公式 (和赋值) 通过增强的 Graph Convolutional Network (GCN) 投射到流形上。通过识别节点异质性和结构约束等技术,我们能够生成语义上忠实的嵌入,提高推理检查和视觉关系预测模型的性能。有趣的是,我们观察到命题理论表示的可处理性与嵌入的易用性之间存在一种联系。
Sep, 2019