UnICORNN: 用于学习非常长时间依赖关系的循环模型
本文中提出基于神经振荡器非线性控制网络的二阶常微分方程模型时间离散化的递归神经网络,证明其对于隐藏状态的梯度具有精确的上限,解决了梯度问题,实验证明该递归神经网络在处理复杂的时序数据上具有稳定和准确的性能,达到了现有技术水平。
Oct, 2020
我们提出了一种基于长短期记忆机制的算法来解决非均匀采样数据上具有长期依赖性的序列建模问题,其核心是将记忆从时间连续状态中分离出来,形成了一种新的 ODE-LSTM 模型。实验证明,该模型在非均匀采样数据的长期依赖建模上优于基于其他递归神经网络的模型。
Jun, 2020
本文通过分析两个合成数据集来研究 RNNs 在处理长期依赖问题时的信息存储方法,并阐明了几种不同类型信息在 RNNs 中如何存储,这同时解释了最近采用的指定初始化或转移矩阵约束的方法的成功。
Feb, 2016
本研究提出了一种新型神经网络结构,更好地建模序列数据的长期依赖性,称之为 higher order RNNs,实验结果表明,比常规 RNNs 和 LSTMs 性能都要好,适用于各种序列模型任务。
Apr, 2016
本文提出了一种基于高阶循环神经网络 (HORNN) 的方法来解决训练标准循环神经网络 (RNN) 中的梯度消失问题,并通过使用 MGB3 数据集进行语音识别实验,证明了该方法可以显著减少字词错误率,同时使用仅为网络参数数目和计算量的 20%-50%。
Feb, 2018
本文介绍了一种称为 Independently Recurrent Neural Network 的新型递归神经网络,其具有分层连接、神经元不相互依赖以及可适用于非饱和激活函数等特点,实验结果表明该网络较传统的递归神经网络、长短时记忆网络在多种任务上表现更好。
Mar, 2018
本文对于近三十年来产生和实践了重要的循环神经网络(RNN),LSTM 和 BRNN 等模型的研究进行综述,旨在提供一个自成体系的最前沿阐述和历史视角,并引用了相关研究文献。
May, 2015
本文提出了一种特殊的循环神经网络 AntisymmetricRNN,它通过稳定性方程来捕获长期依赖关系,相较于常规 LSTM 模型,AntisymmetricRNN 在长期依赖问题上表现更好,且结构更简单。
Feb, 2019