一种用于文本分类的 C-LSTM 神经网络
本文研究了使用卷积神经网络的文本分类的新基准模型,在这些模型中,将文档作为三维张量表示进行输入,从而实现了句子级分析,经实验证明该模型在长文档特别表现良好。
Jan, 2023
本文探讨了将 CNNs 和 LSTMs 相结合的好处,并在不同数据集上对阿拉伯语情感分析的准确性进行了改进,同时考虑了特定阿拉伯语单词的形态多样性。
Jul, 2018
本文提出一种结合了 LSTM 和 CNN 模型的组合模型 (LSTM-CNN),利用词嵌入和位置嵌入来实现跨句子 n 元关系抽取。该模型利用了 LSTMs 和 CNNs 的特性,同时利用长距离的顺序信息和捕获大部分信息特征,是跨句子 n 元关系抽取的一种有效模型。该模型在标准数据集上进行评估,表现明显优于 CNN、LSTM 以及组合 CNN-LSTM 模型,并且优于当前跨句子 n 元关系抽取研究的最新成果。
Nov, 2018
本文探讨了通过在完全卷积神经网络中增加长短时记忆循环神经网络分支(LSTM RNN sub-modules)来进行时间序列分类的方法,通过使用注意力机制(Attention mechanism)优化模型以及微调(fine-tuning)等方法可以显著提高模型性能。LSTM-FCN 的性能比其他模型表现更出色。
Sep, 2017
提出了 Cached Long Short-Term Memory 神经网络(CLSTM)来捕获长文本中的语义信息,引入了缓存机制以提高循环单元的记忆能力,在文档级情感分类方面表现优于现有模型。
Oct, 2016
本研究使用一种基于 LSTM 的区域嵌入方法,结合卷积层提高了基于文本分类任务的效果,并发现在这种任务中,区域嵌入是比单独词嵌入更有效的。
Feb, 2016
本文提出了一种名为 TextConvoNet 的基于卷积神经网络的体系结构,不仅可以提取句内 n-gram 特征,还可以捕获输入文本中的句间 n-gram 特征,进而优于现有的文本分类用的机器学习和深度学习模型。
Mar, 2022
本文介绍了一种基于 LSTM 的循环神经网络架构,用于训练大词汇量的语音识别声学模型,与传统的 RNN 和深度神经网络进行了比较。结果表明,LSTM 模型收敛速度快,对于相对较小的模型具有最先进的语音识别表现。
Feb, 2014
本文介绍了 CLSTM 模型,该模型将上下文特征(如主题)纳入模型中,在两个语料库上的实验结果表明,使用单词和主题作为特征可以提高模型在 NLP 任务中的性能,并在问题回答、句子完成、释义生成和对话系统中的下一句预测等 NL 应用程序中发挥重要作用。
Feb, 2016
提出了 Leap-LSTM, 一种 LSTM 增强模型,可以动态跳跃读取文本以提高长文本处理效率。在对情感分析、新闻分类、本体分类和主题分类等任务进行实验评估后发现,相比标准 LSTM 模型,Leap-LSTM 能够更快速地读取文本并获得更好的预测性能和效率平衡。
May, 2019