自描述网络的少样本命名实体识别
本文提出了一种有效地建立识别命名实体(NER)系统的方法,基于最近的基于转换器的自我监督预训练语言模型(PLMs),并探讨了三种正交的方案来改进针对少样例情况的模型泛化能力,通过大量实验结果表明,我们的方法在少数样例学习环境中显著改善或优于基于域标记微调的 PLM 线性分类器等基线方法,同时在无训练和少样例学习环境下建立了最新的业界记录。
Dec, 2020
EP-Net is proposed to improve labeled dependency and prototype distribution in few-shot named entity recognition, achieving better performance than previous models.
Aug, 2022
本文提出了一种自适应 NER 方法,利用未经充分学习的实体作为查询,从非结构化文本中检索外部知识,以提高模型的性能。通过实验验证,该模型在 CrossNER 数据集上表现优于强基准模型 2.35 个 F1 分数。
Oct, 2022
该研究提出了一个基于预训练语言模型的新型 NER 框架:SpanNER,在低资源环境下的 few-shot 学习、领域转移和 zero-shot 学习设置中,可以识别从未出现的实体类,通过实验可知其相比于最佳基准线平均能提高 10%,23%和 26%。
Sep, 2021
本文介绍了一种分解元学习方法,通过元学习逐步解决了少样本命名实体识别中的少样本跨度检测和少样本实体类型划分问题,并在各种基准测试中证明了该方法优于以往方法的卓越性能。
Apr, 2022
我们提出了一种新的名词实体识别方法,称为基于示例的实体识别,在缺乏数据的情况下通过受到问答启发,使用少量支持示例来识别新领域中的实体范围,与当前最先进的方法相比,该方法表现出更好的性能,特别是在使用少量支持示例时。
Aug, 2020
本论文研究使用(基于度量学习的)原型网络来进行少样本命名实体识别任务,其可以学习单词的中间表示并对其进行聚类来进行类别分类,通过将该技术与迁移学习结合使用,可以在只有很少的训练实例的情况下实现良好的分类器,进而实现零样本学习。
Dec, 2018
本文提出一种基于因果干预的少样本 NER 方法,通过背门调整和增量学习干预原型,避免了少样本选择偏差所带来的虚假相关性问题,并在不同基准测试中取得了新的最佳表现。
May, 2023
我们的研究提出了一个改进的少样本命名实体识别流程,利用预训练的跨领域跳板标识检测器和大规模语言模型,有效减少了基本特征的重复训练,同时消除了对少样本的依赖,通过广泛的实验表明,在各种数据集上,我们的模型在细粒度少样本命名实体识别方面胜过基线模型,包括 ChatGPT。
Jun, 2024