本研究旨在整合知识图谱的图嵌入和文本编码技术,以提高自动完成知识图谱的性能,实现更精确的链接预测和结构学习。实验结果表明,该方法能实现与文本编码方法相比 1-2 个数量级的推理成本减少和最先进的性能表现。
Apr, 2020
本文利用三元组网络和基于 transformer 的语言模型,采用信息聚类方式对知识图谱中的实体或关系进行 embedding,提升关系预测准确性。通过在多个基准知识图谱上的 triplet 分类和关系预测任务的表现验证了 GilBERT 方法的优越性。
Nov, 2022
本文提出了一种新的多原型嵌入网络模型,旨在共同提取关系三元组的组成,即实体对和相应的关系,通过设计一种混合的原型学习机制来连接文本和关于实体和关系的知识,从而注入实体和关系之间的隐式相关性,并提出原型感知正则化来学习更具代表性的原型,实验结果表明,该方法可以提高少样本三元组提取的性能。
Oct, 2020
提出了一种有效的方法以解决知识图谱嵌入中数据稀疏问题。该方法通过随机游走产生附加三元组来增加三元组数量,并从产生的随机游走元路径中准确有效地过滤出信息元路径。
Sep, 2022
本文提出了通过预训练语言模型和 k 近邻的知识图谱嵌入新方法 kNN-KGE,使得 rare 或 emerging entities 更容易被显式地存储,而非隐式存在于模型参数中,实验证明该方法可提高归纳式和传导式链接预测结果,并在只有很少的三元组的低资源情况下获得更好的性能。
Jan, 2022
该研究论文提出了基于注意力机制的特征嵌入方法,能有效地捕捉到三元组周边复杂和隐式的信息,并在多个数据集上相对于现有方法实现了显著的性能提升。
Jun, 2019
TripleRE 是一种新的知识图谱嵌入方法,其创新性地将关系向量分为三部分并利用残差概念实现更好的性能。此外,使用 NodePiece 对实体进行编码取得了良好的效果,缩小了参数大小并解决了可扩展性的问题,实验表明我们的方法达到了大规模知识图谱数据集的最先进水平,且在其他数据集上也有竞争力。
本文提出了一种基于神经模型的监督式方法 NEST,用于在大规模知识图谱中联合编码图结构和文本,并生成高质量多样化的实体摘要,通过采用程序化标注数据进行训练,克服手动标注摘要数据的昂贵问题。研究表明,该方法在两个公共基准测试中明显优于现有技术。
May, 2020
该研究构建了一种知识图谱补全方法,通过微调 BERT 模型获取三元组中隐藏的语义信息,并使用注意力特征嵌入方法计算正负三元组中关系和实体之间的语义注意力得分,形成软约束规则来实现语义信息的自适应增强。此外,考虑到高维向量对影响,使用 BERT-Whitening 方法降低维度,提高语义向量的效率。经实验比较,在 FB15K 和 WIN18 数据集上,所提出的方法表现更好,比原始翻译模型有约 2.6%的数值改善。
Feb, 2023
本文研究如何提高知识图谱的完整性,通过引入 LP-BERT 模型,并结合语义匹配以及数据增强的方法,实现了知识图谱补全任务的最新成果,优于现有最佳表现。