拓展转导式知识图嵌入模型用于归纳逻辑关系推理
研究使用图神经网络的归纳节点和关系结构表征方法对知识图谱中的新实体进行逻辑推理的方法,并实验发现归纳模型能够在推理时间内对未见节点进行推理,同时可以推广至训练天数 500%大的图表,表现出较高效率和效果平衡的特点。
Oct, 2022
提出了一种基于图神经网络的关系预测框架 GraIL,该框架可以推理本地子图结构并具有强的归纳偏差来学习独立于实体的关系语义。与基于嵌入的模型不同,GraIL 是自然归纳的,并且可以在训练后推广到未看到的实体和图形。在归纳设置中,GraIL 优于现有的规则归纳基线。
Nov, 2019
本文提出一种名为 MorsE 的模型,该模型不学习实体的嵌入,而是学习可转移的元知识,以生成实体的嵌入,这种元知识由实体独立模块建模并通过元学习进行学习,在归纳设置下,该模型可以显着优于相应的基线模型,适用于知识图谱的内部和外部任务。
Oct, 2021
本文提出了一种基于文本编码的结构模型框架,用于在知识图谱上进行归纳逻辑推理,通过设计渐进式的指令和额外的注意力和 maxout 层来增强结构建模,成功处理了复杂查询的逻辑结构,提高了在归纳和转导数据集上的推理效率。
May, 2023
本文提出一种名为 InGram 的机器学习方法,该方法能够在推理时生成新实体和新关系的嵌入向量,通过引入注意力机制和关系图来整合邻居节点的嵌入向量,并在多种归纳学习场景中取得了优于 14 种现有方法的效果。
May, 2023
本文提出了一种新颖的方法,将知识三元组和逻辑规则整合起来,通过有序关系在连续的低维向量空间中对实体和关系类型进行编码,同时利用逻辑规则的传递性和反对称性,来实现知识表示的学习。通过实验证明,该模型在知识图谱完成任务方面显著优于其他基线模型,表明该模型可以捕获知识图谱中的传递性和反对称性信息。
Feb, 2017
TransF 是一种新型的基于翻译的方法,可用于对知识图谱进行嵌入学习和关系预测,在处理具有数千种关系的复杂知识图谱时,具有高效性和鲁棒性,比现有的方法表现更好。
Jan, 2018
本文介绍了知识图谱嵌入的相关研究,提出了一种新的模型 ——TransF,有效地解决了前置模型无法处理的关系问题,并通过基准数据集的链接预测和三元组分类实验,证明了该模型相对于其他前沿模型具有明显的性能提升。
May, 2015
本论文提出了一种名为 InductivE 的学习框架,旨在解决 Commonsense Knowledge Graph(CKG)完成中可能出现的未见过实体的问题,该框架直接从原始实体属性 / 文本计算实体嵌入,并由一个自由文本编码器、一个图编码器和一个 KG 完成解码器组成。实验证明,InductivE 在 ATOMIC 和 ConceptNet 基准测试中都显著优于现有基线方法。
Sep, 2020
本文提出了一种名为 BERTRL 的解决方案,该方案使用预训练语言模型和 fine-tuning,通过将关系实例及其可能的推理路径作为训练样本,支持归纳学习并在 15 个应用中超越现有技术。
Mar, 2021