Few-NERD:少样本命名实体识别数据集
本文提出了一种有效地建立识别命名实体(NER)系统的方法,基于最近的基于转换器的自我监督预训练语言模型(PLMs),并探讨了三种正交的方案来改进针对少样例情况的模型泛化能力,通过大量实验结果表明,我们的方法在少数样例学习环境中显著改善或优于基于域标记微调的 PLM 线性分类器等基线方法,同时在无训练和少样例学习环境下建立了最新的业界记录。
Dec, 2020
我们提出了统一的标签感知令牌级对比学习框架,通过利用标签语义作为后缀提示来丰富上下文,同时优化上下文 - 上下文和上下文 - 标签对比学习目标,从而提高推广辨别性的上下文表示。广泛的实验表明我们的方法在各种传统测试领域和大规模少样本 NER 数据集上优于先前的最先进模型,微粒 F1 分数平均绝对增益达到 7%。进一步的分析揭示了我们模型受益于其强大的迁移能力和改进的上下文表示。
Apr, 2024
我们提出了一种新的名词实体识别方法,称为基于示例的实体识别,在缺乏数据的情况下通过受到问答启发,使用少量支持示例来识别新领域中的实体范围,与当前最先进的方法相比,该方法表现出更好的性能,特别是在使用少量支持示例时。
Aug, 2020
通过大规模语言模型,命名实体识别可以达到更精细化的实体类型识别、零样本识别和语句检索等目标,但这些目标仍然需要进一步研究和探索。
Oct, 2023
本研究旨在解决某些语种尚未存在高质量手动标注数据集的现状,并通过引入 WikiGoldSK 数据集,评估了最先进的多语言预训练语言模型在斯洛伐克语上的效果,并与现有的银标准斯洛伐克 NER 数据集进行了比较。我们还进行了几个示范性实验,并显示使用一个银标准数据集进行训练可以获得更好的结果。最终,我们公开了数据集、代码和经过训练的模型,并采用可许可的许可条款。
Apr, 2023
该研究提出了一个基于预训练语言模型的新型 NER 框架:SpanNER,在低资源环境下的 few-shot 学习、领域转移和 zero-shot 学习设置中,可以识别从未出现的实体类,通过实验可知其相比于最佳基准线平均能提高 10%,23%和 26%。
Sep, 2021
我们的研究提出了一个改进的少样本命名实体识别流程,利用预训练的跨领域跳板标识检测器和大规模语言模型,有效减少了基本特征的重复训练,同时消除了对少样本的依赖,通过广泛的实验表明,在各种数据集上,我们的模型在细粒度少样本命名实体识别方面胜过基线模型,包括 ChatGPT。
Jun, 2024
本文提出了一种基于理性的两步数据增强方法来提高模型的泛化性能,用于跨域 NER 任务,结果表明我们的模型无论是在数据增强还是提示调整方法中都显著提高了交叉域 NER 任务的性能。
Aug, 2022
EP-Net is proposed to improve labeled dependency and prototype distribution in few-shot named entity recognition, achieving better performance than previous models.
Aug, 2022