学习为实体链接选择下一个合理提及
本研究提出一种基于强化学习的方法,将实体链接转换为序列决策问题,全局考虑前面提及的实体,并探索当前选择对后续决策的长期影响,实验证明该模型比现有系统表现更好且具有更好的泛化性能。
Feb, 2019
本研究提出了一种新的神经实体链接模型,将实体链接中的关系视为潜在变量,并在优化实体链接系统的同时诱导这些关系,同时取得了 AIDA-CoNLL 基准测试上最好的结果。
Apr, 2018
该研究提出了一种基于知识增强的命名实体识别方法(KENER),该方法利用密集检索模块来识别候选实体,利用该实体的描述作为额外信息来帮助识别提及,并研究了多种数据抽样策略和设计了有效的损失函数。该系统在 NLPCC-2022 共享任务 2 的 Track 1 中获得第一名,在 Track 2 中获得第二名。
Sep, 2022
该论文介绍了一种基于深度神经网络和语义知识图谱的深层语义相关性模型(DSRM),用于测量实体之间的语义相关性以进行话题连贯性建模,相比于现有方法,DSRM 在两个公开数据集上减少了 19.4%和 24.5% 的实体消岐错误率。
Apr, 2015
本研究提出了一种基于元学习、弱监督和合成数据的方法,以解决自然语言处理领域中少样本实体链接任务。在实验中证明,该方法在少量标注数据情况下可以获得较好的效果,并具有良好的可迁移性。
Jul, 2022
提出了一种基于最近邻法的实体链接方法,该方法通过建立一个上下文相关的提及编码器,学习将相似的提及放置在比不同实体的提及更接近的向量空间中,从而利用所有实体的提及作为 “类原型”,通过对训练集中标记的实体的提及集合进行检索,并应用最近的提及邻居实体标签进行推理。通过对维基百科超链接的提及对的大型多语言语料库进行训练,该模型在一个包含 7 亿个提及的索引上进行最近邻推理。该方法训练简单,预测可解释性更强,并在两个多语言实体链接基准测试中优于所有其他现有方法。
Jun, 2021
本文提出了一种基于概率图模型的联合实体消岐方法,充分利用了文档级别实体共现和上下文信息,避免昂贵的训练过程和专业特征工程,通过节点置信传递来做近似推断,能够在实时场景中快速高效地工作,对多种基准数据集进行了准确性测试,表现与现有先进方法相当甚至更好。
Sep, 2015
本研究提供了一种简单而有效的方法,利用维基百科文章中与查询类似的句子,并直接使用其中人工注释的实体作为查询的候选实体,然后使用一系列特征来排名,包括概率、上下文匹配、词嵌入以及候选实体及其相关实体之间的相关性。通过该方法我们可以在实体链接基准测试中取得更好的结果。
Apr, 2017
论文提出了在缺乏背景知识和长尾实体的情况下,通过自动化生成实体出现位置的候选项并结合用户反馈来提高实体链接的准确性的方法。选择了基于梯度互缠的多样化和文本相关性方法作为生成候选项的方法,并在 FACC 数据集上进行了广泛的实验,展示了该方法的有效性。
Oct, 2018