英雄帮派神经模型用于实体识别
使用 BERT 和 transformer 层的简单和有效的 Named Entity Recognition 方法在计算机科学和生物医学领域的三个基准数据集上优于当前最先进技术,无需外部资源或特定数据增强。
Mar, 2022
本文提出一种多任务 Transformer 模型,该模型将实体边界检测任务整合到命名实体识别任务中,通过关系分类来实现实体边界检测,并采用外部知识库和自注意力及交叉注意力机制来提高解码时实体类型映射的准确性。在多个实验数据集上的实验结果表明,该方法显著提高了生成型 NER 模型的性能。
Mar, 2023
本文提出了一种基于分层上下文表示的模型,通过句子级和文档级表示来提高实体识别模型中全局信息的利用,其中包括标签嵌入和注意机制以及键值内存网络,实验证明该模型在三个基准数据集上表现出优越的效果。
Nov, 2019
通过研究预训练基于 transformer 的模型在命名实体识别方面的应用,探索了全局文档上下文与局部上下文之间的关系,发现正确检索全局文档上下文对于性能的影响比仅利用局部上下文更明显,并促使进一步研究如何更好地检索该上下文。
May, 2023
本研究论文介绍了一种紧凑的命名实体识别模型 GLiNER,通过双向变压器编码器实现并行实体抽取,同时在各种命名实体基准测试中展现出强大的性能,优于 ChatGPT 和经过微调的大型语言模型。
Nov, 2023
本文介绍基于双向 LSTM 和条件随机场,以及基于转移的方法的两种新的神经网络模型,这些模型不依赖于领域特定的知识和语言。通过使用监督语料库和未标注语料库,字符表示和无监督的学习表示,这些模型在四种语言中实现了名词实体识别的最先进性能。
Mar, 2016
本文提出了一种新的多粒度命名实体识别框架,MGNER,用于检测句子中多个实体或实体提及,这些实体或实体提及可以是不重叠或完全嵌套的。该框架通过检测所有可能的单词片段和分类实体来识别命名实体,其中利用了上下文信息和自我注意机制,实验结果表明,MGNER 在非重叠 / 嵌套 NER 任务中比现有的最先进基线算法表现提高了 4.4% 的 F1 分数。
Jun, 2019
本研究使用基于深度神经网络的查询生成方法和基于 BERTScore 的提及感知的重新排序体系结构,以进一步提高命名实体识别的性能。最后,在 WNUT17 数据集上实现了 61.56 的微 F1 得分。
Mar, 2023
本文综述了深度神经网络在命名实体识别方面的应用,相对于传统的基于特征工程和监督或半监督学习算法的实体识别方法,神经网络在该领域中取得了更好的效果,并表明吸收过去的基于特征的 NER 系统的一些经验教训可以进一步提高性能。
Oct, 2019