在大规模预训练模型的基础上,提出了一种基于自然语言生成的简单而有效的跨模态实体链接方法,通过使用 in-context learning 能力以及取回多模态实例作为演示来自适应语言模型来解决昂贵且难以扩展的困境。
Jun, 2023
本文介绍了 LIEL,一种语言无关的实体链接系统,通过使用区分重排框架和许多不受领域和语言限制的特征函数,它可以在多种不同的语言中工作。在各种基准数据集上的实验表明,该系统在英语上表现出色,在训练过英语的情况下,也可以很好地工作在西班牙语上,这证明了该方法的可行性。
Dec, 2017
实体链接是将文本提及与相应实体连接的计算过程。本论文通过开发多个系统,证明了即使资源有限,也可以构建在多种语言中运作的竞争性神经网络实体链接系统,从而使实体链接更容易接近。
May, 2024
本文提出了一种新的方法来解决生物医学实体链接的问题,利用基于知识库的预训练和微调,以及多种类似词的构建方式来进行模型训练,这种方法在多项实验中都取得了最优结果。
Apr, 2022
通过实体消歧任务,我们使用三步硬提示方法探索大型语言模型 (LLM) 的性能,改进模型的原始性能并与现有方法进行比较,以提高模型的知识建模和准确性。
Feb, 2024
本文提出了一种名为 LNN-EL 的神经符号方法,通过结合适用于一阶逻辑的可解释规则的优势和神经学习的性能,对短文本中的实体链接问题进行了处理。此方法不仅可以与基于规则的传统方法相媲美,而且还具有可扩展性和可转移性,并且可以跨数据集进行学习。
Jun, 2021
综述了自 2015 年以来,神经实体链接 (EL) 系统的最新发展,目的是系统化神经实体链接系统的设计特征,并将其性能与常见基准测试中的经典方法进行比较。该文从候选生成、提及 - 上下文编码和实体排名等方面讨论了神经 EL 系统的通用架构,总结了每个方法的突出特点。
May, 2020
本文介绍了 mGENRE,一个多语言实体链接(MEL)问题的序列到序列系统。使用自回归网络,mGENRE 将输入句子中的实体转化为 KB 中的目标实体,采用多语言实体名称匹配方案,在零样本情境下取得 50% 以上的性能提升,实现了最新的最好表现。
Mar, 2021
提出了一种简单而有效的方法,Informed Named Entity Recognition Decoding (iNERD),将命名实体识别视为一种生成过程,利用近期生成模型的语言理解能力,并采用了基于信息提取的有限文本生成的解码方案,以提高性能和消除幻觉风险,我们在合并的命名实体语料库上训练了模型,评估了五个生成语言模型在八个命名实体识别数据集上的表现,并取得了显著的结果,特别是在未知实体类别集的环境中,展示了该方法的适应性。
Aug, 2023
本文提出了一种基于多任务指令的生成式框架 InstructionNER,用于低资源的命名实体识别。实验结果表明,我们的方法在少样本任务中始终优于其他基线模型。
Mar, 2022