联合属性保持嵌入的跨语言实体对齐
本文研究使用基于嵌入的方法将不同语言的实体编码到同一向量空间中,并提出使用预训练的多语言 BERT 模型来融合各个语言中的实体描述,以寻找源语言和目标语言之间相应实体的方法。结果表明,该方法在两个基准数据集上明显优于现有系统。
Oct, 2019
本研究提出了一种新的跨语言词和实体联合表示学习方法,通过多语言知识库进行远程监督,利用两种正则化方法和知识和跨语言关注降低噪声, 实验结果定性和定量证明了该方法的显著性。
Nov, 2018
本文研究利用基于嵌入的方法,利用多语言知识图谱上实体的文字描述,通过共训两种嵌入模型,即一个多语言知识图谱嵌入模型和一个多语言文字描述嵌入模型,进行半监督学习。实验结果表明,该方法在实体对齐任务中的性能随共训迭代而提高,最终明显优于之前的方法。此外,该方法具有零样本实体对齐和跨语言知识图谱完成的良好能力。
Jun, 2018
本文提出了一种使用图卷积神经网络(GCN)学习实体和关系表示的新颖联合学习框架,以改善实体对齐,并证明利用有用的关系表示来协助实体对齐是一种简单而有效的方法。通过在三个真实的跨语言数据集上进行的实验表明,我们的方法显著优于现有的实体对齐方法。
Sep, 2019
本文提出了一种基于翻译模型的多语言知识图谱嵌入方法 MTransE 来实现跨语言的知识对齐,并采用不同的转化技术和损失函数来生成五种模型,实验证明该方法在跨语言实体匹配和三元组对齐方面取得了很好的效果。
Nov, 2016
本研究提出一种新颖的框架,通过利用实体的多个视角来学习实体嵌入,从而增强知识图谱之间的嵌入式实体对齐,并在真实数据集上验证实验证明,该框架显著优于现有的嵌入式实体对齐方法。
Jun, 2019
本研究提出了一种名为 JEANS 的 incidentally supervised 模型,该模型联合表示多语言知识图谱和文本语料库,并通过文本提供一定程度的监督信号来改进实体对齐任务。实验结果表明,JEANS 在实体对齐方面具有较好的性能,且显著优于仅依赖于知识图谱内部信息的现有方法。
May, 2020
该研究提出了一种新的实体对齐方法,将实体的三元组转化为文本序列,并以双向文本蕴含任务的形式对齐两个知识图谱中的实体,该方法利用预训练语言模型,能够更好地捕捉实体之间的联系,并在五个跨语言实体对齐数据集上表现优异。
May, 2023
提出了一种简单且新颖的无监督方法,利用深度学习多语言编码器结合机器翻译器对知识图谱文本进行编码,同时考虑全局与局部对齐策略,并生成排名匹配结果。在跨语言实体对齐任务上,我们的方法在 DBP15K 数据集中的中文、日文和法文到英文对齐任务中得到了较高的准确率,超过了无监督和半监督类别的最新方法。与最新的有监督方法相比,在日文到英文和法文到英文对齐任务中,我们的方法分别提高了 2.6% 和 0.4%,在中文到英文对齐任务中略微降低了 0.2%。
Sep, 2023
该论文介绍了发现不同知识图谱中相同实体的通用技术,使用嵌入式技术具有符号异构性的问题,在构建数据集时发现了两个主要不足之处:关系三元组中的同构图结构和属性三元组中的弱异质性,因此提出了一种基于时间感知的文字编码算法进行实体对齐。
Nov, 2022