双向 LSTM 在中文分词中的最新进展
本文提出了一种新颖的神经网络框架,利用门控组合神经网络和 LSTM 语言评分模型,消除上下文窗口,可以利用完整的分词历史,产生分布式表示,从而实现中文分词,并在基准数据集上进行实验,结果不需要使用现有方法的特征工程,获得了与现有最先进方法相当甚至更好的性能。
Jun, 2016
本文介绍了一种新型神经模型,通过在有向无环图上使用长短时记忆网络来整合单词级别信息,结合预训练的字符或单词嵌入向量,实现了比基准模型更好的中文分词表现。
Jul, 2017
本研究采用词、字符和 Unicode 字节嵌入比较 bi-LSTM 和传统的 POS 标注器,在 22 种语言中取得了最优性能,并表明 bi-LSTM 对于训练数据大小和标签污染的敏感度被过高估计。
Apr, 2016
本文提出了一种新的多层 RNN 模型 —— 密集连接的双向长短期记忆网络 (DC-Bi-LSTM),并在五个句子分类基准数据集上进行了评估。结果显示,相比同等或更少的参数的传统双向 LSTM,深度为 20 的 DC-Bi-LSTM 模型可以成功训练,并获得了显著的改进。此外,与最先进方法相比,我们的模型表现具有很好的潜力。
Feb, 2018
本文研究了一种基于格子结构的 LSTM 模型用于汉语命名实体识别,在编码一系列输入字符的同时,还编码与词典匹配的所有潜在词。与基于字符的方法相比,我们的模型明确利用了单词和单词序列信息。与基于单词的方法相比,格内 LSTM 不受分割错误的影响。门控循环单元允许我们的模型从句子中选择最相关的字符和单词以达到更好的命名实体识别结果。各种数据集上的实验表明了格内 LSTM 优于基于单词和字符的 LSTM 基线,取得了最佳结果。
May, 2018
本文介绍一种基于上下文敏感的无监督词分割模型,使用双向神经语言模型和两种解码算法来增强长期和短期的相关性,该模型在不同的数据集上实现了最新技术水平的中文和泰文词分割结果。
Mar, 2021
本研究提出了一种基于双向长短期记忆递归神经网络(BLSTM-RNN)的统一标记解决方案,可应用于各种标记任务,包括词性标注、分块和命名实体识别,该方法利用从无标记文本中学习的一组独立任务特征和内部表示,并不需要特定的任务知识或复杂的特征工程,在所有这三个标记任务中获得了几乎最先进的性能。
Nov, 2015