基于高斯先验的嵌套命名实体识别强化学习
本文提出了一种新的多粒度命名实体识别框架,MGNER,用于检测句子中多个实体或实体提及,这些实体或实体提及可以是不重叠或完全嵌套的。该框架通过检测所有可能的单词片段和分类实体来识别命名实体,其中利用了上下文信息和自我注意机制,实验结果表明,MGNER 在非重叠 / 嵌套 NER 任务中比现有的最先进基线算法表现提高了 4.4% 的 F1 分数。
Jun, 2019
本研究提出了一种基于触发器的图神经网络(Trigger-GNN),通过实体触发编码和语义匹配获取补充注释嵌入,并利用高效的图传递体系结构解决嵌套实体问题。实验表明,Trigger-GNN 在四个公共 NER 数据集上始终优于基线,并能有效缓解嵌套 NER。
Apr, 2022
本文描述了微软在交叉语种命名实体识别中的新实践方法,使用源语种的标注数据和目标语种的无标注数据,采用半监督学习和强化学习的方法来提取弱监督信号并实现了新的最先进性能优于现有的模型。
Jun, 2021
本文提出一种多任务 Transformer 模型,该模型将实体边界检测任务整合到命名实体识别任务中,通过关系分类来实现实体边界检测,并采用外部知识库和自注意力及交叉注意力机制来提高解码时实体类型映射的准确性。在多个实验数据集上的实验结果表明,该方法显著提高了生成型 NER 模型的性能。
Mar, 2023
提出了一种用于嵌套命名实体识别的序列到集合神经网络,并利用二分匹配的损失函数计算整体训练损失,实验结果表明该模型在三个嵌套命名实体识别数据集上取得了最先进的结果。
May, 2021
本文提出使用卷积神经网络来建模得分矩阵中的空间关系以解决嵌套的命名实体识别问题,实验证明相较于最近提出的同类方法,本文提出的方法更为优秀,并且发现不同的论文使用不同的句子标记化会对结果产生影响,因此提供一种易于使用的预处理脚本以便于日后比较。
Aug, 2022
本文首次提出了针对 few-shot 嵌套 NER 任务的 Biaffine 对比学习框架 (BCL),该框架利用上下文依赖来区分嵌套实体,将语义表示与上下文跨度表示相结合,并采用对比学习来调整表示分布,实现更大的边缘边界和更广泛的领域迁移学习能力。实验结果表明,在三个英语、德语、俄语嵌套 NER 数据集上,BCL 在 1-shot 和 5-shot 任务中的 F1 得分优于三个基本模型。
Dec, 2022
本文提出了一种神经再排序系统,用于命名实体识别,利用递归神经网络模型来学习涉及命名实体提及的句子级模式,使用 LSTM 和 CNN 结构来学习这些句子的深层表示以进行再排序。实验结果表明,我们的系统可以显著提高命名实体识别准确率,超过了两个不同的基线,并在标准基准测试中报告了最好的结果。
Jul, 2017
本文提出一种统一的框架,通过将命名实体识别任务形式化为机器阅读理解问题,能够同时处理平面 NER 和嵌套 NER 任务,并在实验中验证该框架在嵌套 NER 数据集上大幅提高性能,并在平面 NER 中获得当前最佳结果。
Oct, 2019
本文提出了一种基于跨度的命名实体识别框架 ——Global Pointer(GP),通过引入一种乘性注意机制来利用相对位置关系,以便在全局范围内考虑开始和结束位置来预测命名实体,并且利用两个模块来组合实体头和实体尾以解决训练过程和推理过程之间的不一致性,同时引入新的分类损失函数来解决不平衡标签问题,大量实验证明,GP 比现有解决方案表现更好。
Aug, 2022