神经集体实体链接
CDNEL 是一种跨领域神经实体链接框架,它通过学习不同领域知识库的联合表示空间来实现同时链接到通用领域知识库和特定领域知识库,其使用不同类型的数据集进行微调,从而得出不同的 CDNEL 模型变体。研究表明,使用 Zeshel 数据集中包括的四个领域进行评估时,这些变体实现了 9% 的平均精度提升。
Sep, 2022
本论文描述了 USTC_NELSLIP 系统,在 2016 年 TAC 知识库填充 (KBP) 竞赛中提交的 Trilingual Entity Detection and Linking (EDL) 赛道,使用了两种方法进行实体发现和提及检测 (即使用 条件 RNNLM 和基于注意力的编码器解码器框架),将实体链接 (EL) 系统分为两个模块:基于规则的候选生成和神经网络概率排名模型。此外,还使用一些简单的字符串匹配规则进行 NIL 聚类,在结束时,我们的最佳系统在整个类型提及 CEAF 加度量中取得了 0.624 的 F1 值。
Nov, 2016
综述了自 2015 年以来,神经实体链接 (EL) 系统的最新发展,目的是系统化神经实体链接系统的设计特征,并将其性能与常见基准测试中的经典方法进行比较。该文从候选生成、提及 - 上下文编码和实体排名等方面讨论了神经 EL 系统的通用架构,总结了每个方法的突出特点。
May, 2020
本文提出了一种新颖的端到端神经网络模型用于实体链接,通过引入外部知识库模拟不同实体链接决策之间的语义关联,利用循环随机游走层加强相关实体链接决策的证据,最终在目标实体消歧上实现了比其他现有模型更优秀的性能。
Jun, 2019
本文提出一种神经实体链接模型,通过多种角度训练查询和候选文档之间的细粒度相似性和不相似性,并结合卷积和张量网络,在多语言语境下实现跨语言实体链接,并证明该英文训练的系统可以通过使用多语言嵌入进行零 - shot 学习。该提议系统在英语以及跨语言测试中取得 state-of-the-art 的结果 (例如:西班牙语和汉语 TAC 的 2015 数据集)。
Dec, 2017
本文提出了第一个神经网络端到端实体链接系统,通过学习文本中所有可能识别结果的上下文相似性得分,实现了提及检测和实体歧义消解的联合(Entity Linking)算法,方法不需要其他工程特定特征,且在足够的训练数据情况下优于市场已有系统,在测试数据集与训练集不同(如问询 / 推文和新闻文档)时,我们的模型与传统命名实体识别系统耦合可提供最好或次优的 EL 准确性。
Aug, 2018
本文介绍了一种受 Stack-LSTM 启发的模型,利用命名实体识别和实体链接的相关性进行联合学习,从而在 NER 和 EL 两个任务中获得更强的性能,并取得了竞争性的最新成果。
Jul, 2019
本文提出了一种名为 LNN-EL 的神经符号方法,通过结合适用于一阶逻辑的可解释规则的优势和神经学习的性能,对短文本中的实体链接问题进行了处理。此方法不仅可以与基于规则的传统方法相媲美,而且还具有可扩展性和可转移性,并且可以跨数据集进行学习。
Jun, 2021
提出了一种基于多重嵌入的命名实体链接方法,并在 Namesakes 数据集上评估了其性能。发现创建知识库实体所需的最少提及数量对 NEL 性能非常重要,并可通过调整知识库数据来改善表示,同时也发现多样化新闻语料库的语言模型比公共数据集更适合命名实体链接中的嵌入。
May, 2022