ChatEL 是一个三步骤的框架,用于指示 LLMs 返回准确结果,能够提高 10 个数据集的平均 F1 性能超过 2%。
Feb, 2024
本文提出了第一个神经网络端到端实体链接系统,通过学习文本中所有可能识别结果的上下文相似性得分,实现了提及检测和实体歧义消解的联合(Entity Linking)算法,方法不需要其他工程特定特征,且在足够的训练数据情况下优于市场已有系统,在测试数据集与训练集不同(如问询 / 推文和新闻文档)时,我们的模型与传统命名实体识别系统耦合可提供最好或次优的 EL 准确性。
Aug, 2018
综述了自 2015 年以来,神经实体链接 (EL) 系统的最新发展,目的是系统化神经实体链接系统的设计特征,并将其性能与常见基准测试中的经典方法进行比较。该文从候选生成、提及 - 上下文编码和实体排名等方面讨论了神经 EL 系统的通用架构,总结了每个方法的突出特点。
May, 2020
本文介绍了一种受 Stack-LSTM 启发的模型,利用命名实体识别和实体链接的相关性进行联合学习,从而在 NER 和 EL 两个任务中获得更强的性能,并取得了竞争性的最新成果。
Jul, 2019
本文介绍了 LIEL,一种语言无关的实体链接系统,通过使用区分重排框架和许多不受领域和语言限制的特征函数,它可以在多种不同的语言中工作。在各种基准数据集上的实验表明,该系统在英语上表现出色,在训练过英语的情况下,也可以很好地工作在西班牙语上,这证明了该方法的可行性。
Dec, 2017
本研究旨在探究使用现代实体链接方法对博物馆收藏数据进行丰富的可能性,结果表明,正交纠正的实体链接模型在该领域的性能明显优于其他现有方法。
May, 2023
本文首次探索在职业技能与 ESCO 分类之间进行实体链接,使用高效的神经模型(双编码器和自回归模型)进行技能链接的实证研究。
Jan, 2024
研究了 Tweet 领域中实体链接方法的挑战,提出了一种使用来自维基百科的长上下文表示的混合解决方案,经过实验评估和比较,取得了 0.93 的召回率。
Oct, 2022
实体链接是将文本提及与相应实体连接的计算过程。本论文通过开发多个系统,证明了即使资源有限,也可以构建在多种语言中运作的竞争性神经网络实体链接系统,从而使实体链接更容易接近。
May, 2024
本文探讨多模态实体链接的任务,提出了一种方法来构建一个完全注释的 Twitter 数据集,同时提出了一种同时学习文本和视觉内容的方法来构建一个实体和言及的表征,并在 Twitter 数据集上验证了该方法的有效性,并强调在可用时,利用视觉信息的重要性。
Apr, 2021