SLCNN:用于文本分类的句子级卷积神经网络
本文提出了一种名为 TextConvoNet 的基于卷积神经网络的体系结构,不仅可以提取句内 n-gram 特征,还可以捕获输入文本中的句间 n-gram 特征,进而优于现有的文本分类用的机器学习和深度学习模型。
Mar, 2022
本文提出 C-LSTM 模型,结合了 CNN 和 RNN 的优点,用于句子表示和文本分类,实验结果表明 C-LSTM 比 CNN 和 LSTM 表现更好,可在这些任务中取得出色的性能。
Nov, 2015
本文介绍了一种新的基于 VDCNN 的文本处理体系结构,通过使用 29 个卷积层,仅使用小型卷积和池化操作,该模型的性能得到了提高,并且在多个公共文本分类任务上,相对于现有模型,且在文本处理中使用非常深的卷积神经网络实现了最先进水平。
Jun, 2016
提出了一种新的句子分类方法 Context-LSTM-CNN,利用了与被分类句子相邻的句子形成的上下文和 LSTM 处理被分类句子的远距离依赖关系以及使用了基于 CNN 的短跨度特征。该方法在两个不同的数据集上始终优于以前的方法。
Aug, 2018
本文研究了在文本分类中应用卷积神经网络,以利用文本数据的 1D 结构(即单词顺序)进行精确预测,并提出了一种简单但新颖的变异,即在卷积层中使用词袋转换。实验证明该方法与现有技术相比具有更高的准确性。
Dec, 2014
本文介绍了一种称为动态卷积神经网络的卷积架构,它使用动态 k-Max 池化进行句子的语义建模,并通过四项实验(二进制和多类情感预测,六路问题分类和推特情感预测)展示了出色的表现。
Apr, 2014
本文分析了深度学习在自然语言处理三个核心任务(文本表示、词序建模和知识表示)中的应用现状,探讨了在文本分类背景下自然语言处理所取得的改进和协同效应,同时考虑了文本生成、文本分类和语义解析中对抗技术所带来的挑战,通过对文本分类任务的经验研究,证明了交互式集成训练的有效性,特别是与 TextCNN 结合,凸显了这些进展对文本分类增强的重要性。
Mar, 2024