基于机器阅读理解的命名实体识别:一种多任务学习方法
利用机器阅读理解将命名实体识别作为一个解决问题,能够很好的解决大量额外数据收集和预训练的高成本挑战,展示了出色的性能提高并实现了最新的成果。
May, 2023
本文提出一种统一的框架,通过将命名实体识别任务形式化为机器阅读理解问题,能够同时处理平面 NER 和嵌套 NER 任务,并在实验中验证该框架在嵌套 NER 数据集上大幅提高性能,并在平面 NER 中获得当前最佳结果。
Oct, 2019
本研究提出了一种新颖的基于 BERT 的多问题机器阅读理解体系结构,将命名实体识别作为一个多问题 MRC 任务,旨在解决大规模电子商务属性(或实体)在高性能和优化训练和推理运行时从非结构化文本中提取的问题,该模型在三个 NER 数据集上获得了比 NER-SQMRC 框架模型更快的训练和推理时间,并且保持与单个问题 MRC(NER-SQMRC)性能相当。
May, 2022
本文提出一种多任务 Transformer 模型,该模型将实体边界检测任务整合到命名实体识别任务中,通过关系分类来实现实体边界检测,并采用外部知识库和自注意力及交叉注意力机制来提高解码时实体类型映射的准确性。在多个实验数据集上的实验结果表明,该方法显著提高了生成型 NER 模型的性能。
Mar, 2023
本研究介绍了一项新任务:Dynamic Named Entity Recognition(DNER),提供了一个框架,以更好地利用上下文来评估算法提取实体的能力。DNER 基于两个数据集,DNER-RotoWire 和 DNER-IMDb,我们评估了基线模型并提出了与此新任务相关的问题和研究方向的实验。
Feb, 2023
命名实体识别(NER)旨在从文本中提取命名真实世界对象并确定它们的类型,本文首先概述了最近流行的方法,然后探讨了其他调查中较少涉及的基于图和变换器的方法,包括大型语言模型(LLMs)。其次,重点介绍了适用于稀缺注释数据集的方法。第三,我们评估了主要 NER 实现在不同类型的数据集上的性能,并对从未共同考虑过的算法进行了深入比较。我们的实验揭示了数据集特征如何影响我们比较的方法的行为。
Jan, 2024
提出了基于机器阅读理解(MRC)的医学命名实体识别(NER)模型,利用任务自适应预训练策略提高模型在医学领域的能力,并引入多词对嵌入和多粒度膨胀卷积以增强模型的表示能力,同时采用 Biaffine 和 MLP 的组合预测器来提高模型的识别性能。实验评估表明,我们提出的模型在中文嵌套医学 NER 的基准测试 CMeEE 上优于目前的最优模型。
Mar, 2024
通过大规模语言模型,命名实体识别可以达到更精细化的实体类型识别、零样本识别和语句检索等目标,但这些目标仍然需要进一步研究和探索。
Oct, 2023
本文综述了深度神经网络在命名实体识别方面的应用,相对于传统的基于特征工程和监督或半监督学习算法的实体识别方法,神经网络在该领域中取得了更好的效果,并表明吸收过去的基于特征的 NER 系统的一些经验教训可以进一步提高性能。
Oct, 2019