BERT 的归纳关系预测
我们提出了一种使用相对较小的语言模型从文本中提取关系嵌入的方法,这种方法可以在关系相似性方面取得出色的结果,并且在关键词和模型性能方面显著优于其他基于提示的语言模型。
Sep, 2023
提出了一种基于图神经网络的关系预测框架 GraIL,该框架可以推理本地子图结构并具有强的归纳偏差来学习独立于实体的关系语义。与基于嵌入的模型不同,GraIL 是自然归纳的,并且可以在训练后推广到未看到的实体和图形。在归纳设置中,GraIL 优于现有的规则归纳基线。
Nov, 2019
本文介绍了关系路径覆盖和关系路径置信度的概念,以在模型训练之前过滤出不可靠的路径,提升模型性能,并提出了知识推理句子变换器(KRST)来预测 KG 中的归纳关系。我们在三个真实世界数据集上进行了广泛的实验,实验结果表明,与 SOTA 模型相比,KRST 在大多数传导和归纳测试用例(6 个中的 4 个)和 12 个 few-shot 测试用例中的 11 个中实现了最佳性能。
Jan, 2023
本文提出了一种基于 SST-BERT 的方法,结合时间增强技术和结构句子编码,用于解决在不完整的时间知识图谱中进行时关系预测的问题。该模型包含时间掩码 MLM 任务,用于在 TKGs 中生成丰富的时间令牌,提高时间敏感性,并在转导和归纳测试数据上有效改善了现有模型。
Apr, 2023
本文提出了一种名为 REPORT 的新方法,利用 Transform 器框架同时聚合关系路径和上下文,能够自然地推广到完全归纳设置,实验表明 REPORT 在两个完全归纳数据集的八个版本子集中表现比所有基线方法都要好,同时提供可解释性的预测结果。
Apr, 2023
本研究提出了一种模型,结合了预训练的 BERT 语言模型和目标实体信息,来解决关系分类任务。通过定位目标实体和在预训练模型中传递信息,并整合两个实体的相应编码信息,我们在 SemEval-2010 任务 8 关系数据集上取得了显著的改进。
May, 2019
使用句法分析和预先训练的词嵌入技术,在缺乏任何形式监督的情况下,提取少量精确关系,用于注释更大的语料库,并在生物医学领域的四个数据集上通过微调预先训练的 BERT 模型进行关系抽取实验表明,与无监督关系提取的两个简单的基线相比,我们的方法显著优于两个简单的基线,即使不使用任何监督,也获得了三个数据集中的最先进结果之一;更重要的是,我们证明了使用噪声数据可以成功地对大型预先训练的语言模型进行微调,而不是依赖于黄金数据进行微调。
Nov, 2019
本文提出了一种基于 BERT 的多任务学习模型(ZS-BERT),通过零样本关系抽取解决新出现关系的抽取问题,实验结果表明该方法相比于现有的方法在 F1 分数上至少提高了 13.54%。
Apr, 2021
本文利用三元组网络和基于 transformer 的语言模型,采用信息聚类方式对知识图谱中的实体或关系进行 embedding,提升关系预测准确性。通过在多个基准知识图谱上的 triplet 分类和关系预测任务的表现验证了 GilBERT 方法的优越性。
Nov, 2022