本文介绍基于双向 LSTM 和条件随机场,以及基于转移的方法的两种新的神经网络模型,这些模型不依赖于领域特定的知识和语言。通过使用监督语料库和未标注语料库,字符表示和无监督的学习表示,这些模型在四种语言中实现了名词实体识别的最先进性能。
Mar, 2016
本篇论文提出了三种基于神经网络的提及检测方法,并在共指消解和 NE 嵌套任务中进行了评估和应用,基于最佳方法得出的模型在提高性能方面表现出色。
Jul, 2019
提出了一种基于转换和使用通用神经编码的简单有效的模型,能够识别医学命名实体识别中存在的连续和不连续的提及,同时在三个生物医学数据集上实验表明,该模型能够有效识别不连续提及,不会牺牲连续提及的准确性。
Apr, 2020
本文提出使用词性识别和命名实体识别相结合的方法,在 NER 中推广了语法结构树,并引入局部边际化算法来解决名字嵌套的问题。实验结果表明,使用本文提出的方法在 ACE2004,ACE2005 和 NNE 数据集上达到了现有最优效果,并在 GENIA 数据集上表现出色,并且具有快速的推理速度。
Mar, 2022
本文提出了一种基于分层上下文表示的模型,通过句子级和文档级表示来提高实体识别模型中全局信息的利用,其中包括标签嵌入和注意机制以及键值内存网络,实验证明该模型在三个基准数据集上表现出优越的效果。
Nov, 2019
本文提出了一种针对 NLP 中需要汇总来自远处的同一实体的信息的情况的循环层,该层使用外部系统提取的指代注释连接属于同一簇的实体提及,并将其合并到最先进的阅读理解模型中,从而改善了 Wikihop、LAMBADA 和 bAbi 人工智能任务的性能,并且可在数据稀缺时获得大的收益。
Apr, 2018
本文提出了一种神经再排序系统,用于命名实体识别,利用递归神经网络模型来学习涉及命名实体提及的句子级模式,使用 LSTM 和 CNN 结构来学习这些句子的深层表示以进行再排序。实验结果表明,我们的系统可以显著提高命名实体识别准确率,超过了两个不同的基线,并在标准基准测试中报告了最好的结果。
Jul, 2017
本文提出一种统一的框架,通过将命名实体识别任务形式化为机器阅读理解问题,能够同时处理平面 NER 和嵌套 NER 任务,并在实验中验证该框架在嵌套 NER 数据集上大幅提高性能,并在平面 NER 中获得当前最佳结果。
Oct, 2019
本文针对移位 - 归约分析的相对弱点,利用双向 LSTM 模型提取向前追望特征,并将结果传递给强大的过渡性成分分析器,提高了 1.3% 在 WSJ 和 2.3% 在 CTB 中的准确性。
Dec, 2016
通过语法和树结构,我们使用基于语言学的方法识别实体,并通过相对和全局注意机制增强模型特征,最终在标记空间中线性投影加权向量以预测实体标签,发现该模型可以检测揭示句子中实体类型的单词,并在两个数据集上创立了新的最新技术水平。
Sep, 2019