本文通过分析两个合成数据集来研究 RNNs 在处理长期依赖问题时的信息存储方法,并阐明了几种不同类型信息在 RNNs 中如何存储,这同时解释了最近采用的指定初始化或转移矩阵约束的方法的成功。
Feb, 2016
本文对于近三十年来产生和实践了重要的循环神经网络(RNN),LSTM 和 BRNN 等模型的研究进行综述,旨在提供一个自成体系的最前沿阐述和历史视角,并引用了相关研究文献。
May, 2015
本文提出了一种基于可视化分析的方法,通过理解和比较用于自然语言处理的循环神经网络模型,包括基于各个隐藏状态单元对输入文本的响应和相似性进行 聚类和可视化,以及通过基于聚合信息的图标序列可视化分析 RNN 的隐藏状态的行为,实验结果表明该方法在领域专家的案例研究和评论中具有可用性和有效性。
Oct, 2017
我们提出可逆脉冲神经网络以降低训练过程中中间激活和膜电位的内存成本,通过实验证明我们的可逆 SNN 网络在网络深度上不增加每张图片的内存成本,并比现有模型在准确性和消耗的 GPU 内存方面表现更好。
Dec, 2023
通过使用一种被称为状态规范化的机制来处理以前递归神经网络(RNNs)的不足,从而提高 RNNs 的状态转移动态分析和解释性,并将其应用于自动机抽取,自然语言处理和计算机视觉中。
Jan, 2019
本文介绍了一种用于解决长期依赖的神经网络结构 —— 循环神经网络,并通过对语言建模等实验得出其同 LSTM 网络有着类似的性能表现。
Dec, 2014
介绍 Skip RNN 模型,可以通过学习跳过状态更新的方式解决 RNN 在长序列上训练时梯度消失和长期依赖的困难问题,并能够减少所需的 RNN 更新次数,同时保持或提高基线 RNN 模型的性能。
Aug, 2017
通过将循环神经网络与隐马尔科夫模型相结合,旨在增加其可解释性,发现 LSTM 和 HMM 可以学习互补的文本特征信息。
Jun, 2016
本文介绍了一种新型的神经序列建模方法 - 准循环神经网络(QRNNs),通过卷积层与最小化的循环池化函数的交替使用,QRNNs 可以在高度并行的情况下完成对序列数据的建模,并且在语言建模、情感分类和字符级神经机器翻译等任务中显示出比基于 LSTM 的架构更优异的性能。
Nov, 2016
本文对循环神经网络的基本原理、最新进展和研究挑战进行了说明,介绍了针对学习长期依赖问题的新进展,适合该领域的新手和专业人士。
Dec, 2017