跨数据集和语言学习开放式命名实体识别的通用实体分类
利用 W^2NER 架构和 2D 卷积等方法,将命名实体识别 (NER) 统一为一个二维网格,通过分类识别实体词之间的关系,取得在 14 个基准数据集上显著的改进。
Dec, 2021
本文介绍了一种基于Transformer的python库T-NER,用于命名实体识别的LM finetuning,并展示了其在跨领域和跨语言泛化方面的研究和应用潜力,同时提供了一个Web应用程序,使得非专业编程人员能够与模型进行交互,进一步促进模型质量的定性评估。研究结果表明,即使利用预训练的大型LM进行fine-tuning,跨领域泛化仍然有挑战,但与数据集的相关性更强的特定领域的性能通常具有可比性。此外,我们还通过 Hugging Face 模型沙盒发布了所有的LM checkpoints来促进未来研究。
Sep, 2022
本文介绍了一种新的命名实体识别级联方法,它由三个步骤组成:首先在输入句子中识别候选实体,然后将每个候选实体链接到现有的知识库中,最后预测每个实体候选的细粒度类别。实验证明,外部知识库在准确分类细粒度和新兴实体方面具有重要意义,并且我们的系统在MultiCoNER2共享任务中表现出强大的性能,即使在使用高资源语言的知识库情况下,也能在低资源语言环境中获得良好的表现。
Apr, 2023
本文通过目标蒸馏训练以培养能在广泛应用领域,如开放信息抽取中表现出色的学生模型,以命名实体识别为案例研究,展示了如何将ChatGPT蒸馏为更小的UniversalNER模型,通过在包括生物医学、编程、社交媒体、法律和金融等9个多样领域的43个数据集上评估,无需直接监督训练,UniversalNER在成千上万个实体类型上取得了显著的NER准确性,平均F1值比Alpaca和Vicuna等通用指导调教模型高出30个百分点,仅使用极少参数,UniversalNER不仅具备了ChatGPT识别任意实体类型的能力,还比平均NER准确性高出7-9个百分点,甚至在超越InstructUIE等最新多任务指导调教系统(使用监督NER样例)方面表现出色,同时进行了全面的消融研究以评估我们蒸馏方法中各组件的影响,以便促进未来针对目标蒸馏的研究。
Aug, 2023
通过大规模语言模型,命名实体识别可以达到更精细化的实体类型识别、零样本识别和语句检索等目标,但这些目标仍然需要进一步研究和探索。
Oct, 2023
介绍了一个名为Universal NER (UNER)的开源项目,旨在开发多种语言的黄金标准NER基准;UNER的目标是提供高质量的、跨语言一致的标注,以促进和标准化多语言NER研究。UNER v1包含使用一致的跨语言模式在12种不同语言中注释的18个数据集。在本文中,我们详细介绍了UNER的数据集创建和组成,并提供了在本语言和跨语言学习设置下的初始建模基线。我们向公众发布了数据、代码和拟合模型。
Nov, 2023
命名实体识别(NER)旨在从文本中提取命名真实世界对象并确定它们的类型,本文首先概述了最近流行的方法,然后探讨了其他调查中较少涉及的基于图和变换器的方法,包括大型语言模型(LLMs)。其次,重点介绍了适用于稀缺注释数据集的方法。第三,我们评估了主要NER实现在不同类型的数据集上的性能,并对从未共同考虑过的算法进行了深入比较。我们的实验揭示了数据集特征如何影响我们比较的方法的行为。
Jan, 2024
本篇论文介绍了一个提供高精度标记和跨多领域模型评估的丹麦命名实体识别数据集DANSK,以及具备细粒度注释的DaCy 2.6.0模型,通过对现有和新模型的评估揭示了跨领域的性能差异,并讨论了数据集的注释质量缺陷及其对模型训练和评估的影响, despite these limitations,该论文主张在丹麦命名实体识别领域同时使用这个新数据集DANSK并进行进一步的领域通用性研究。
Feb, 2024
本研究解决了现有基于大语言模型的命名实体识别(NER)方法性能不足及高计算资源需求的问题。通过引入生成式提取和上下文分类(GEIC)任务,并提出级联NER框架(CascadeNER),该方法在资源消耗低的同时提升了准确性。实验结果表明,CascadeNER在低资源和细粒度场景下达到最先进的性能,具有广泛的应用潜力。
Sep, 2024