CoNLL-2003 命名实体标注器在 2023 年依然有效吗?
现代命名实体识别系统在更大更强大的神经模型时代中稳步提高性能。本文通过对最高性能 NER 模型的测试输出进行深入分析,并在测试集上引入新的文档级注释,对其性能进行精细评估。我们通过对错误进行分类,超越 F1 分数,解释 NER 的真实技术水平并指导未来的研究。我们回顾了之前纠正测试集各种缺陷的尝试,并引入了一个新的纠正版本 CoNLL#,解决了其系统性和最常见的错误,从而允许进行低噪声、可解释的错误分析。
May, 2024
通过综合重新标定工作和自动一致性检查,修正了英文 CoNLL-03 中所有标签的 7.0%。我们的资源通过实验证实了最先进的方法在我们的数据上达到了显著更高的 F1 得分(97.1%),并且通过注释噪声的误差分析发现高资源粗粒度 NER 的理论上限尚未达到。
Oct, 2023
本文在命名实体识别任务上,提出了一种新的泛化能力指标,通过在多个角度分析已有模型在泛化行为上的不同表现,历经深入实验分析,得出了现有神经网络命名实体识别模型在数据集偏差、注释错误等方面存在局限性,并提出了改进方向的训练方法。此外,作者还开源了一个涵盖最近 NER 研究论文的综述项目。
Jan, 2020
研究了流行的英语命名实体识别(NER)数据集是否能够概括全球范围内的英语使用,通过建立全球英语 NER 数据集并测试多个模型,发现它们在处理低资源的全球英语变体时都出现了显著的性能下降。
Apr, 2024
通过大规模语言模型,命名实体识别可以达到更精细化的实体类型识别、零样本识别和语句检索等目标,但这些目标仍然需要进一步研究和探索。
Oct, 2023
本文介绍了一种新的命名实体识别级联方法,它由三个步骤组成:首先在输入句子中识别候选实体,然后将每个候选实体链接到现有的知识库中,最后预测每个实体候选的细粒度类别。实验证明,外部知识库在准确分类细粒度和新兴实体方面具有重要意义,并且我们的系统在 MultiCoNER2 共享任务中表现出强大的性能,即使在使用高资源语言的知识库情况下,也能在低资源语言环境中获得良好的表现。
Apr, 2023
LLMs 在自然语言处理中的应用已成为近两年的热门趋势,然而,对于某些 NLP 任务,如 NER,在与监督学习方法相比较时,LLMs 的性能仍然不足以胜任。我们的研究开发了一种名为 LTNER 的 NER 处理框架,该框架融入了一种革命性的上下文化实体标记生成方法,通过利用成本效益高的 GPT-3.5 以及无需额外训练的上下文学习,显著提高了 LLMs 在处理 NER 任务时的准确性。在 CoNLL03 数据集上的 F1 得分从初始的 85.9% 增加到 91.9%,接近了监督微调的性能,这一结果增进了对 LLMs 潜力的深入认识。
Apr, 2024
本文通过将联邦学习应用在命名实体识别任务中,使用具有语言无关性的 CoNLL-2003 数据集作为基准数据集,Bi-LSTM-CRF 模型作为基准模型,研究了联邦学习的性能,展示了联邦学习相对于集中式模型在不同的异构学习环境下的性能降低,并讨论了联邦学习在自然语言处理应用领域中的现存挑战和未来研究方向。
Mar, 2022
本研究主要介绍了一个公共的法律命名实体识别数据集 E-NER,它表明将通用英语文本数据集训练的命名实体识别模型应用于法律文本会导致重大的性能下降,与在 E-NER 数据集上训练和测试相比,F1 分数下降了 29.4%至 60.4%。
Dec, 2022
本文描述 CoNLL-2003 共享任务:面向多语言的命名实体识别。介绍了数据集(英语和德语)和评估方法的背景信息,概述了参加任务的系统,以及它们的表现。
Jun, 2003