使用堆叠残差LSTM和可训练的偏置解码进行命名实体识别
本文介绍了一种基于CharWNN深度神经网络的自适应特征命名实体识别系统,使用自动学习特征实现多语种NER任务,证明了字符嵌入在NER中的有效性。试验结果表明,CharWNN的性能优于现有最先进的系统。
May, 2015
本文介绍基于双向LSTM和条件随机场,以及基于转移的方法的两种新的神经网络模型,这些模型不依赖于领域特定的知识和语言。通过使用监督语料库和未标注语料库,字符表示和无监督的学习表示,这些模型在四种语言中实现了名词实体识别的最先进性能。
Mar, 2016
本研究提出了一种端到端的神经网络架构,用于越南命名实体识别,最佳模型组合了双向长短时记忆神经网络、卷积神经网络、条件随机场,使用预训练的词嵌入作为输入,可在标准测试集上实现88.59%的F1分数。我们的系统能够在不使用任何句法或手工制作特征的情况下实现与VLSP竞选第一名系统相当的性能,同时对使用深度学习模型的越南NER在单词和字符级别上进行了广泛的实证研究。
May, 2017
本文提出两种弱监督的跨语言实体标识方法,分别基于注释投影和词嵌入,无需使用目标语言的人工注释数据。同时,我们设计了两种协同解码方案,将两个基于投影的方法的输出相结合,评估表明这种组合性的方法优于其他三种弱监督方法。
Jul, 2017
本文提出了一种神经再排序系统,用于命名实体识别,利用递归神经网络模型来学习涉及命名实体提及的句子级模式,使用LSTM和CNN结构来学习这些句子的深层表示以进行再排序。实验结果表明,我们的系统可以显著提高命名实体识别准确率,超过了两个不同的基线,并在标准基准测试中报告了最好的结果。
Jul, 2017
本研究提出了两种神经网络架构用于嵌套的命名实体识别(NER)。第一种通过标准LSTM-CRF架构中的笛卡尔积来建模多标签,第二种将嵌套的NER视为序列到序列的问题,并使用硬关注(word whose label is being predicted)来进行标签预测。此外,我们丰富了最近发布的上下文嵌入:ELMo,BERT和Flair,以进一步改进四个嵌套实体Corpora的结果,并报告了CoNLL-2002荷兰语和西班牙语以及CoNLL-2003英语的具有最新结果。
Aug, 2019
本文综述了深度神经网络在命名实体识别方面的应用,相对于传统的基于特征工程和监督或半监督学习算法的实体识别方法,神经网络在该领域中取得了更好的效果,并表明吸收过去的基于特征的NER系统的一些经验教训可以进一步提高性能。
Oct, 2019
本报告提出了一种基于条件随机场层和双向LSTM层的神经网络体系结构,其中嵌入向量(Glove,BERT)的融合输入被用来增强模型的泛化能力,还引入了一个分类模型来分离句子并对弱类和强类进行优化以提高Named Entity Recognition任务的性能。经实验证明,该方法显著提高了弱类的表现结果,并且只使用了非常少量的数据集。
Mar, 2020
本文提出了一种简单而强大的方法—— Synergized-LSTM 来结合linear sequences和dependency trees两类特征以优化 named entity recognition 的效果;实验结果显示,相较于基于 LSTM 和 GCN 的模型,该方法在四种语言的多个标准数据集上均有更好的表现,同时需要更少的参数,并能够更好地捕获长距离依赖。
Apr, 2021