各种 NER 子任务的统一生成框架
本文提出一种统一的框架,通过将命名实体识别任务形式化为机器阅读理解问题,能够同时处理平面 NER 和嵌套 NER 任务,并在实验中验证该框架在嵌套 NER 数据集上大幅提高性能,并在平面 NER 中获得当前最佳结果。
Oct, 2019
本文提出一种多任务 Transformer 模型,该模型将实体边界检测任务整合到命名实体识别任务中,通过关系分类来实现实体边界检测,并采用外部知识库和自注意力及交叉注意力机制来提高解码时实体类型映射的准确性。在多个实验数据集上的实验结果表明,该方法显著提高了生成型 NER 模型的性能。
Mar, 2023
该研究提出了一种名为 nested-from-flat NER 的新子任务,利用基于跨度的模型培训数据并有意忽略在已注释实体内的嵌套跨度,从而获得能够识别嵌套实体的训练模型,结果在多个数据集上得到了良好的成绩。
Nov, 2022
该研究提出两阶段标识器以识别嵌套实体,其通过过滤种子跨度和边界回归生成跨度建议,并准确地标记跨度与相应类别。实验结果表明,该方法优于以往最先进的模型。
May, 2021
本文基于图形依存解析思想,利用双仿射模型对输入进行全局视图,探索所有语句中的跨度,以准确预测命名实体,以 Nested NER 为例, 对 8 个语料库进行了评估并取得了所有语料库的 SOTA 性能,最高的准确度增益高达 2.2 个百分点。
May, 2020
提出了一种用于嵌套命名实体识别的序列到集合神经网络,并利用二分匹配的损失函数计算整体训练损失,实验结果表明该模型在三个嵌套命名实体识别数据集上取得了最先进的结果。
May, 2021
本文提出使用卷积神经网络来建模得分矩阵中的空间关系以解决嵌套的命名实体识别问题,实验证明相较于最近提出的同类方法,本文提出的方法更为优秀,并且发现不同的论文使用不同的句子标记化会对结果产生影响,因此提供一种易于使用的预处理脚本以便于日后比较。
Aug, 2022
利用 W^2NER 架构和 2D 卷积等方法,将命名实体识别 (NER) 统一为一个二维网格,通过分类识别实体词之间的关系,取得在 14 个基准数据集上显著的改进。
Dec, 2021
使用 BERT 和 transformer 层的简单和有效的 Named Entity Recognition 方法在计算机科学和生物医学领域的三个基准数据集上优于当前最先进技术,无需外部资源或特定数据增强。
Mar, 2022
通过提出一种新颖的 NER 框架,名为 ToNER,基于生成模型,利用实体类型的优势促进 NER 任务,并通过在生成模型的编码器上追加多个二分类任务、增加辅助任务和进行广泛实验验证,证明了我们所提出的面向实体类型的 ToNER 策略的有效性。
Apr, 2024