作为词 - 词关系分类的统一命名实体识别
本文提出一种多任务 Transformer 模型,该模型将实体边界检测任务整合到命名实体识别任务中,通过关系分类来实现实体边界检测,并采用外部知识库和自注意力及交叉注意力机制来提高解码时实体类型映射的准确性。在多个实验数据集上的实验结果表明,该方法显著提高了生成型 NER 模型的性能。
Mar, 2023
本文提出一种统一的框架,通过将命名实体识别任务形式化为机器阅读理解问题,能够同时处理平面 NER 和嵌套 NER 任务,并在实验中验证该框架在嵌套 NER 数据集上大幅提高性能,并在平面 NER 中获得当前最佳结果。
Oct, 2019
该研究提出了一种基于序列到序列的统一框架实现实体识别子任务的方法,既不需要特定的标记模式和枚举语法,也能够同时解决平面、嵌套和不连续型 NER 任务,通过使用三种实体表示方法,实现了出色的表现。
Jun, 2021
提出了一种新的基于 span 的模型,旨在准确地识别重叠和不连续的命名实体,并通过关系分类判断实体片段之间的关系。实验结果表明,这种模型在处理重叠和不连续的命名实体时具有很高的竞争力。
Jun, 2021
本文提出使用卷积神经网络来建模得分矩阵中的空间关系以解决嵌套的命名实体识别问题,实验证明相较于最近提出的同类方法,本文提出的方法更为优秀,并且发现不同的论文使用不同的句子标记化会对结果产生影响,因此提供一种易于使用的预处理脚本以便于日后比较。
Aug, 2022
本文基于图形依存解析思想,利用双仿射模型对输入进行全局视图,探索所有语句中的跨度,以准确预测命名实体,以 Nested NER 为例, 对 8 个语料库进行了评估并取得了所有语料库的 SOTA 性能,最高的准确度增益高达 2.2 个百分点。
May, 2020
本研究介绍了一项新任务:Dynamic Named Entity Recognition(DNER),提供了一个框架,以更好地利用上下文来评估算法提取实体的能力。DNER 基于两个数据集,DNER-RotoWire 和 DNER-IMDb,我们评估了基线模型并提出了与此新任务相关的问题和研究方向的实验。
Feb, 2023
本文提出了一种基于分层上下文表示的模型,通过句子级和文档级表示来提高实体识别模型中全局信息的利用,其中包括标签嵌入和注意机制以及键值内存网络,实验证明该模型在三个基准数据集上表现出优越的效果。
Nov, 2019
本文综述了深度神经网络在命名实体识别方面的应用,相对于传统的基于特征工程和监督或半监督学习算法的实体识别方法,神经网络在该领域中取得了更好的效果,并表明吸收过去的基于特征的 NER 系统的一些经验教训可以进一步提高性能。
Oct, 2019
使用 BERT 和 transformer 层的简单和有效的 Named Entity Recognition 方法在计算机科学和生物医学领域的三个基准数据集上优于当前最先进技术,无需外部资源或特定数据增强。
Mar, 2022