使用少量示例提示和大型语言模型评估命名实体识别
本文提出了一种有效地建立识别命名实体(NER)系统的方法,基于最近的基于转换器的自我监督预训练语言模型(PLMs),并探讨了三种正交的方案来改进针对少样例情况的模型泛化能力,通过大量实验结果表明,我们的方法在少数样例学习环境中显著改善或优于基于域标记微调的PLM线性分类器等基线方法,同时在无训练和少样例学习环境下建立了最新的业界记录。
Dec, 2020
本文提出了一种基于多任务指令的生成式框架 InstructionNER,用于低资源的命名实体识别。实验结果表明,我们的方法在少样本任务中始终优于其他基线模型。
Mar, 2022
本篇研究提出了一种基于预训练模型且更贴近预训练目标的新型few-shot fine-tuning框架FFF-NER,应用于命名实体识别任务上,经过一系列实验及消融研究,确认其比现有序列标记、原型元学习和提示式方法等现有方法能够更有效改善NER性能。
May, 2022
本文提出了一种基于提示方法的Few-shot Named Entity Recognition(NER)模型,使用实体类别信息构建标签原型,使模型只需使用支持集进行微调即可实现很好的迁移学习表现,实验证明其在Few-NERD和CrossNER数据集上的性能均优于其他先进方法。
May, 2023
本文介绍了PromptNER算法,将大型语言模型与有限训练样本相结合,实现跨领域、少量样本下的命名实体识别任务,相对于传统方法,取得了十分显著的性能提升。
May, 2023
llmNER是一个用于实现LLMs的零射击和少射击NER的Python库,通过提供易于使用的接口,llmNER可以组合提示、查询模型,并解析LLM返回的完成结果。该库还通过提供简单的接口来测试多个变量,让用户可以高效地执行提示工程。我们在两个NER任务上验证了我们的软件,以展示该库的灵活性。llmNER旨在推动上下文学习研究的界限,消除提示和解析步骤的障碍。
Jun, 2024
SLIMER是一种新的指导性指令型大型语言模型,通过使用定义和指南的提示改进了零样本命名实体识别,在未曾见过的命名实体标签上表现更好,并且在域外零样本NER方面表现与最先进的方法相当,同时训练数据减少。
Jul, 2024
FsPONER是一种新颖的优化少样本提示的方法,通过在工业制造和维护领域中使用多种大型语言模型,特别是GPT-4-32K、GPT-3.5-Turbo、LLaMA 2-chat和Vicuna,将其与微调BERT和LLaMA 2-chat等模型进行性能评估,结果显示FsPONER的TF-IDF方法在数据稀缺的真实场景中的命名实体识别性能上超过微调模型约10%。
Jul, 2024
本研究解决了传统命名实体识别(NER)系统对大量标注数据依赖的问题,提出了利用大语言模型的少量示例提示方法。研究发现,尽管大模型在性能上存在差距,但在适应新实体类型和领域时表现出色,这凸显了少量学习在降低标注数据需求方面的潜力,提升了NER的可扩展性和可达性。
Aug, 2024