卷积神经网络与循环神经滤波器
本文介绍了一种称为动态卷积神经网络的卷积架构,它使用动态k-Max池化进行句子的语义建模,并通过四项实验(二进制和多类情感预测,六路问题分类和推特情感预测)展示了出色的表现。
Apr, 2014
本文提出了一种基于多模态循环神经网络 (m-RNN) 的模型,实现图像内容的生成式描述,模型包含句子的深度循环神经网络和图像的卷积神经网络两个子网络以及它们的多模态层,经验证在三个基准数据集上的表现优于现有方法, 还可以应用于图像或句子的检索任务,比现有直接优化排名目标函数的方法取得了显著的性能提升。
Oct, 2014
本研究提出了一种基于树的卷积神经网络(TBCNN),用于区分性句子建模。文章通过 constituency trees 或 dependency trees 提取句子的结构特征,并通过最大池聚合这些特征。我们评估了我们的模型在情感分析和问题分类两个领域的表现,TBCNN的表现均优于以前的最新结果,包括现有的神经网络和专门的特征/规则工程方法。我们还努力可视化基于树的卷积过程,来解释我们的模型工作原理。
Apr, 2015
本文介绍了一种新的基于VDCNN的文本处理体系结构,通过使用29个卷积层,仅使用小型卷积和池化操作,该模型的性能得到了提高,并且在多个公共文本分类任务上,相对于现有模型,且在文本处理中使用非常深的卷积神经网络实现了最先进水平。
Jun, 2016
本文提出了基于CNN编码器和LSTM解码器的分布式句子表征学习方法,旨在实现对多种任务的应用。作者通过训练模型在大规模小说数据集上获得高通用性的卷积句子编码器,并通过多项实验表明该模型在各类应用中均优于竞争方法。
Nov, 2016
本文提出了一种切片循环神经网络(SRNNs),将序列分割为多个子序列实现并行化,SRNNs相对标准RNNs在训练时间快136倍且在六个大规模情感分析数据集上表现更好。
Jul, 2018
该研究提出了一种基于残差递归网络的可逆句子嵌入模型,通过无监督编码任务来训练。我们的方法采用基于回归的输出层来重构输入序列的单词向量,通过ADAM优化器实现高准确度和快速训练,同时引入剩余连接和匹配放弃技术,表现出了在自然语言处理领域各种应用的潜力。
Mar, 2023