TOKEN 是 MASK:预训练语言模型下的少样本命名实体识别
本篇研究提出了一种基于预训练模型且更贴近预训练目标的新型 few-shot fine-tuning 框架 FFF-NER,应用于命名实体识别任务上,经过一系列实验及消融研究,确认其比现有序列标记、原型元学习和提示式方法等现有方法能够更有效改善 NER 性能。
May, 2022
本文提出了一种有效地建立识别命名实体(NER)系统的方法,基于最近的基于转换器的自我监督预训练语言模型(PLMs),并探讨了三种正交的方案来改进针对少样例情况的模型泛化能力,通过大量实验结果表明,我们的方法在少数样例学习环境中显著改善或优于基于域标记微调的 PLM 线性分类器等基线方法,同时在无训练和少样例学习环境下建立了最新的业界记录。
Dec, 2020
本文提出了一种使用预训练的 token-replaced 检测模型作为 few-shot 学习的替代方法,通过将分类或回归任务转化为 token-replaced 检测问题并利用自然语言提示来预测输入中最原始的标签描述词,对 16 个数据集进行了系统评估,结果表明该方法在一句话和两句话的学习任务中都优于使用预训练的 masked language model 的 few-shot 学习器。
Mar, 2022
本论文提出了一种基于 transformer 的方法来解决在生物医学领域中监督命名实体识别(NER)的挑战,包括零样本和少样本 NER。该方法基于将多类令牌分类的任务转化为二进制令牌分类,并在更多数据集和医学实体上预训练,从中可以学习给定实体和潜在类之间的语义关系。使用 PubMedBERT 调整模型进行的实验结果表明,该方法具有识别有限样本中的新实体的能力,对于零样本 NER 的平均 F1 得分达到 35.44%,对于 10 样本和 100 样本 NER 的平均 F1 得分分别为 69.94%和 79.51%。该方法可与目前的先进零样本和少样本 NER 方法相媲美甚至更好。
May, 2023
llmNER 是一个用于实现 LLMs 的零射击和少射击 NER 的 Python 库,通过提供易于使用的接口,llmNER 可以组合提示、查询模型,并解析 LLM 返回的完成结果。该库还通过提供简单的接口来测试多个变量,让用户可以高效地执行提示工程。我们在两个 NER 任务上验证了我们的软件,以展示该库的灵活性。llmNER 旨在推动上下文学习研究的界限,消除提示和解析步骤的障碍。
Jun, 2024
该论文提出了一种基于模板的方法,将 NER 视为一种序列到序列的语言模型排序问题,在推理过程中,模型需要根据相应的模板分数对每个候选实体进行分类,实验结果表明,该方法在 CoNLL03 数据集上取得了 92.55% 的 F1 得分,在 MIT Movie、MIT Restaurant 和 ATIS 数据集上也分别比 BERT 微调方法显着提高了 10.88%、15.34% 和 11.73% 的 F1 得分。
Jun, 2021
我们提出了统一的标签感知令牌级对比学习框架,通过利用标签语义作为后缀提示来丰富上下文,同时优化上下文 - 上下文和上下文 - 标签对比学习目标,从而提高推广辨别性的上下文表示。广泛的实验表明我们的方法在各种传统测试领域和大规模少样本 NER 数据集上优于先前的最先进模型,微粒 F1 分数平均绝对增益达到 7%。进一步的分析揭示了我们模型受益于其强大的迁移能力和改进的上下文表示。
Apr, 2024
本论文研究使用(基于度量学习的)原型网络来进行少样本命名实体识别任务,其可以学习单词的中间表示并对其进行聚类来进行类别分类,通过将该技术与迁移学习结合使用,可以在只有很少的训练实例的情况下实现良好的分类器,进而实现零样本学习。
Dec, 2018
该研究提出了一个基于预训练语言模型的新型 NER 框架:SpanNER,在低资源环境下的 few-shot 学习、领域转移和 zero-shot 学习设置中,可以识别从未出现的实体类,通过实验可知其相比于最佳基准线平均能提高 10%,23%和 26%。
Sep, 2021
本文提出了一种基于理性的两步数据增强方法来提高模型的泛化性能,用于跨域 NER 任务,结果表明我们的模型无论是在数据增强还是提示调整方法中都显著提高了交叉域 NER 任务的性能。
Aug, 2022