基于本地超图的嵌套命名实体识别:基于查询的序列标记
提出了一种用于嵌套命名实体识别的序列到集合神经网络,并利用二分匹配的损失函数计算整体训练损失,实验结果表明该模型在三个嵌套命名实体识别数据集上取得了最先进的结果。
May, 2021
本文提出了一种新的方法来识别包含嵌套实体的实体名,该方法使用具有嵌套实体标签序列的神经模型设计客观函数进行训练,并提供了推断的解码方法,该方法无需额外的超参数,实验表明与现有的处理嵌套实体的方法相比,该方法表现更好,达到了 ACE-2004、ACE-2005 和 GENIA 数据集的 F1 分数分别为 85.82%、84.34% 和 77.36%。
Sep, 2019
本论文研究了包含文本节点和类型节点的异构星型图的表示学习,修正了一种混合形式的图注意力机制,解决了传统序列标注方法中忽略嵌套实体的问题,并提出了一种多层标注策略,经实验验证,该方法在提取扁平和嵌套实体方面均达到了最先进的性能水平。
Oct, 2022
本文提出使用卷积神经网络来建模得分矩阵中的空间关系以解决嵌套的命名实体识别问题,实验证明相较于最近提出的同类方法,本文提出的方法更为优秀,并且发现不同的论文使用不同的句子标记化会对结果产生影响,因此提供一种易于使用的预处理脚本以便于日后比较。
Aug, 2022
该研究提出两阶段标识器以识别嵌套实体,其通过过滤种子跨度和边界回归生成跨度建议,并准确地标记跨度与相应类别。实验结果表明,该方法优于以往最先进的模型。
May, 2021
本文提出使用词性识别和命名实体识别相结合的方法,在 NER 中推广了语法结构树,并引入局部边际化算法来解决名字嵌套的问题。实验结果表明,使用本文提出的方法在 ACE2004,ACE2005 和 NNE 数据集上达到了现有最优效果,并在 GENIA 数据集上表现出色,并且具有快速的推理速度。
Mar, 2022
本研究提出了两种神经网络架构用于嵌套的命名实体识别(NER)。第一种通过标准 LSTM-CRF 架构中的笛卡尔积来建模多标签,第二种将嵌套的 NER 视为序列到序列的问题,并使用硬关注 (word whose label is being predicted) 来进行标签预测。此外,我们丰富了最近发布的上下文嵌入:ELMo,BERT 和 Flair,以进一步改进四个嵌套实体 Corpora 的结果,并报告了 CoNLL-2002 荷兰语和西班牙语以及 CoNLL-2003 英语的具有最新结果。
Aug, 2019
该研究提出了一种基于序列到序列的统一框架实现实体识别子任务的方法,既不需要特定的标记模式和枚举语法,也能够同时解决平面、嵌套和不连续型 NER 任务,通过使用三种实体表示方法,实现了出色的表现。
Jun, 2021
通过在搜索空间上添加补充结构约束,命名实体识别中的嵌套是具有二次时间复杂度的,提出的算法在三个标准英语基准测试中所覆盖的范围广泛,并提供可比较的实验结果。
Oct, 2022
我们介绍了一种基于神经网络架构的新型 NER 方法,可以对复杂语料中的嵌套结构准确地进行标注,与之前的方法不同,我们的方法采用预测实数形式的分段结构,从而能够在保持可微分性的同时,将单词和嵌套实体嵌入结合在一起。我们使用 ACE 2005 语料库对该方法进行评估,其 F1 得分为 74.6,使用上下文嵌入(BERT)可以进一步提高至 82.4,比同类数据训练上的其他方法提高近 8 F1 点。此外,我们将其与 BiLSTM-CRF 进行比较,并比较了它在简单情况下预测嵌套结构的能力对性能的影响。
Jun, 2019