本文提出了一种名为 TextConvoNet 的基于卷积神经网络的体系结构,不仅可以提取句内 n-gram 特征,还可以捕获输入文本中的句间 n-gram 特征,进而优于现有的文本分类用的机器学习和深度学习模型。
Mar, 2022
本文研究了使用卷积神经网络的文本分类的新基准模型,在这些模型中,将文档作为三维张量表示进行输入,从而实现了句子级分析,经实验证明该模型在长文档特别表现良好。
Jan, 2023
论文研究了采用低秩 n 元张量和模式加权的时序卷积网络(TCN)用于文本处理,在标准的情感分类和新闻分类任务中实现了最新的性能
Aug, 2015
本文研究了卷积神经网络在文本处理中的工作原理。作者发现,使用不同的神经元激活模式可以捕获不同的语义类别的 N-gram,并且 Max-pooling 操作可以区分出重要的 N-gram。最后,作者给出了基于研究结果的实际应用,包括模型可解释性和预测可解释性。
Sep, 2018
使用预训练字向量对卷积神经网络进行训练,支持 fine-tuning 并结合静态和动态字向量,以提高句子级分类准确率并在多项基准测试中超越现有技术。
Aug, 2014
本文介绍了一种新的基于 VDCNN 的文本处理体系结构,通过使用 29 个卷积层,仅使用小型卷积和池化操作,该模型的性能得到了提高,并且在多个公共文本分类任务上,相对于现有模型,且在文本处理中使用非常深的卷积神经网络实现了最先进水平。
Jun, 2016
研究应用深度卷积神经网络自动对临床文本进行分类,并证明该方法在自然语言处理任务中比多种广泛应用的方法提高约 15% 的准确性。
Apr, 2017
本文通过构建大规模数据集,比较了基于字级别的卷积神经网络与传统模型如词袋、n-gram 及基于词的卷积神经网络和循环神经网络在文本分类方面的表现。结果表明,基于字级别的卷积神经网络能够达到当前领域最佳或竞争性的结果。
Sep, 2015
本文提出 C-LSTM 模型,结合了 CNN 和 RNN 的优点,用于句子表示和文本分类,实验结果表明 C-LSTM 比 CNN 和 LSTM 表现更好,可在这些任务中取得出色的性能。
Nov, 2015
本研究通过建立一个简单的网络架构 (Texture CNN),探究了卷积神经网络 (CNN) 中深度特征提取层与纹理分析方法之间的相似性,并将纹理分析方法中的 filter bank 思想应用到神经网络中,证明了其对提升网络表现和大幅减少运算及占用空间的优势。
Jan, 2016