自适应特征下的集体实体对齐
本文提出一个基于增强学习的模型用于收集实体对齐数据,并通过一些限制和特征融合策略来提高模型性能,最后在跨语言和单语言的数据集上经过实证分析证实其有效性和优越性。
Jan, 2021
本文提出了一种无监督框架,用于在开放世界中进行实体对齐。该框架挖掘了知识图谱的旁路信息,过滤掉无法匹配的实体,通过渐进式学习框架不断改进结构嵌入,从而提升对齐质量,同时不需要标记数据。
Jan, 2021
LargeEA 通过结构和名称通道相结合的方法实现了大规模知识图谱实体对齐。其中,METIS-CPS 和 NFF 分别用于结构和名称通道。同时,LargeEA 还利用基于名称的数据增强来生成种子对齐结果。实验结果表明,LargeEA 的性能在大规模实体对齐任务中优于当前最先进的方法
Aug, 2021
通过使用实体名称信息和度量作为重要的指导信息,提出了 degree-aware co-attention 网络来识别结构和名称信号的新型互补框架,以有效地融合两种不同的信息源,然后使用有信心的 EA 结果作为锚点通过迭代训练来补充原始 KG 的事实。
May, 2020
本文提出了一种新的基于主动学习的神经实体对齐框架,通过结合结构感知不确定性抽样策略和单例识别器,以便更有效地建立 Seed Alignment,从而减少成本,并具有较好的泛化性。
Oct, 2021
本文对不同的实体对齐方法进行了全面分析,其中主要以基于知识图谱的低维嵌入算法为主,同时提出了四个研究问题并对应用场景和局限性进行了讨论,根据工业数据集中的难点以 extit {Hubness, Degree distribution, Non-isomorphic neighbourhood,} 和 extit {Name bias} 等四个方面进行了实证分析,提出了一个低名称偏倚数据集,并创建了一个开源库,包括 14 种嵌入式实体对齐方法用于进一步研究。
May, 2022
ClusterEA 是一个通用的框架,利用小批量的高等价率实体,采用规范化方法扩大了实体对齐模型,以解决现有 embedding-based 方法中出现的几何问题,并融入在稀疏矩阵融合的基础上为实体对齐提出了新的 ClusterSampler 策略,该方案能够比现有最先进的可扩展性 EA 框架提高 8 倍的 Hits@1。
May, 2022
该研究提出了一种新的实体对齐方法,将实体的三元组转化为文本序列,并以双向文本蕴含任务的形式对齐两个知识图谱中的实体,该方法利用预训练语言模型,能够更好地捕捉实体之间的联系,并在五个跨语言实体对齐数据集上表现优异。
May, 2023
通过在实体对齐模型中注入兼容性的性质,我们提出了一种训练框架,以利用在知识图谱中各个实体之间潜在的依赖关系,可用少量标记数据进行训练,却能达到同标准监督训练所得的效果,验证了该技术的优势。
Nov, 2022
本篇论文提出了一种基于 Echo 实体对齐的新框架,该框架利用 4 级自注意机制将实体信息传播到关系中并回传到实体,同时提出了属性组合双向全局过滤策略以改进引导和生成高质量训练数据,实验结果表明,此方法在三个现实跨语言数据集上的表现稳定在平均 hits@1 上达到 96%,不仅显著优于现有 GNN-based 方法,还是现有 EA 方法的通用和可转移的。
Jul, 2021