GPT-NER:基于大型语言模型的命名实体识别
LLMs 在自然语言处理中的应用已成为近两年的热门趋势,然而,对于某些 NLP 任务,如 NER,在与监督学习方法相比较时,LLMs 的性能仍然不足以胜任。我们的研究开发了一种名为 LTNER 的 NER 处理框架,该框架融入了一种革命性的上下文化实体标记生成方法,通过利用成本效益高的 GPT-3.5 以及无需额外训练的上下文学习,显著提高了 LLMs 在处理 NER 任务时的准确性。在 CoNLL03 数据集上的 F1 得分从初始的 85.9% 增加到 91.9%,接近了监督微调的性能,这一结果增进了对 LLMs 潜力的深入认识。
Apr, 2024
通过将小型微调模型与大型语言模型(LinkNER)结合、以及一种基于不确定性的链接策略(RDC),以提高 NER 任务性能并在鲁棒性测试中明显超过 SOTA 模型,我们量化分析了关键组件如不确定性估计方法、大型语言模型和上下文学习对各种 NER 任务的影响,提供了具体的与网络相关的建议。
Feb, 2024
本研究论文介绍了一种紧凑的命名实体识别模型 GLiNER,通过双向变压器编码器实现并行实体抽取,同时在各种命名实体基准测试中展现出强大的性能,优于 ChatGPT 和经过微调的大型语言模型。
Nov, 2023
llmNER 是一个用于实现 LLMs 的零射击和少射击 NER 的 Python 库,通过提供易于使用的接口,llmNER 可以组合提示、查询模型,并解析 LLM 返回的完成结果。该库还通过提供简单的接口来测试多个变量,让用户可以高效地执行提示工程。我们在两个 NER 任务上验证了我们的软件,以展示该库的灵活性。llmNER 旨在推动上下文学习研究的界限,消除提示和解析步骤的障碍。
Jun, 2024
该论文主要研究大型语言模型在零 - shot 信息提取方面的性能,并提出针对命名实体识别的推理策略,包括分解式问答范式、句法增强和自一致性等方法,并在七个基准测试中取得了显著的改进,对错误类型进行了全面分析,并验证了这些方法在少样本情况和其他大型语言模型中的有效性。
Oct, 2023
通过大规模语言模型,命名实体识别可以达到更精细化的实体类型识别、零样本识别和语句检索等目标,但这些目标仍然需要进一步研究和探索。
Oct, 2023
本研究介绍了 GPT-RE,这是一种解决大型语言模型在关系提取中局限性的方法,包括任务特定实体表现的使用和黄金标签引导推理逻辑的使用。该方法在四个数据集上的实验结果表明其超过了 GPT-3 基线并且在 Semeval 和 SciERC 数据集上实现了 SOTA 表现。
May, 2023
本文描述了解决 SemEval 2023 Task 2:MultiCoNER II(多语言复杂命名实体识别)问题所构建的体系结构和系统。我们评估了两种方法:传统的条件随机场模型和经过自定义头部微调的大型语言模型(LLM),并比较了这两种方法。我们探索的新想法有:1)衰减辅助损失(带剩余项)- 在模型上训练粗粒度 NER 的辅助任务并将其包括在损失函数的一部分中;2)三元标记混合 - 探索在最终 NER 层中预测之前混合相邻标记的嵌入方式;3)任务最优头部 - 探索各种用于 LLM 最终层的自定义头部和学习率。我们还尝试了多个 LLM,包括 GPT-3,并在最终模型中使用了多种 dropout 和其他超参数设置,该模型在开发数据上达到了 0.85/0.84 的微观和宏观 F1 值,并在测试数据上达到了 0.67/0.61。我们证明,虽然预训练的 LLM 本身相对传统模型带来了很大的改进,但通过上述额外特征 / 损失 / 模型工程技术的增强,我们还可以显著提高宏观 F1 分数。
Jan, 2024
在自然语言处理(NLP)领域,命名实体识别(NER)被认为是一项关键技术,广泛应用于各种应用。本研究引入了一种新颖的混合标注方法,将人力与大型语言模型(LLMs)的能力相结合,旨在提高 NER 模型的性能,并以经济的方式解决传统标注方法存在的噪音和类别不平衡问题。通过多个数据集的分析,该方法在受限预算条件下始终显示出比传统标注方法更优越的性能,揭示了利用 LLMs 提高数据集质量的潜力,引入了一种减轻类别不平衡问题的新技术,并证明了以经济方式实现高性能 NER 的可行性。
Mar, 2024