高阶循环神经网络
本文提出了一种基于高阶循环神经网络 (HORNN) 的方法来解决训练标准循环神经网络 (RNN) 中的梯度消失问题,并通过使用 MGB3 数据集进行语音识别实验,证明了该方法可以显著减少字词错误率,同时使用仅为网络参数数目和计算量的 20%-50%。
Feb, 2018
本文提出了一种基于 Gersgorin 圆定理的递归网络理论分析方法,从而引入 Recurrent Highway Networks 的新型结构以提高深度递归神经网络的研究难度并展示其在语言建模上的高效性和有效性。
Jul, 2016
HOT-RNN 是一种用于多元预测的新型神经网络序列架构,通过学习非线性动态来解决高阶相关性和误差传播敏感性问题,并使用张量列车分解来减少参数。在模拟环境和实际时间序列数据上,相对于一般 RNN 和 LSTM 体系结构,它在长期预测方面表现出 5% 到 12% 的改进。
Oct, 2017
本文通过分析两个合成数据集来研究 RNNs 在处理长期依赖问题时的信息存储方法,并阐明了几种不同类型信息在 RNNs 中如何存储,这同时解释了最近采用的指定初始化或转移矩阵约束的方法的成功。
Feb, 2016
本文提出了一种基于哈密顿系统的离散化的循环神经网络架构,解决长时依赖序列输入处理的梯度消失和爆炸问题,实验表明该方法在各种学习任务中提供了最先进的性能。
Mar, 2021
该研究提出了一种基于深度卷积神经网络和分层递归神经网络的图像分类模型,以更好地编码图像区域之间的空间和比例依赖关系,从而取得了在四个具有挑战性的目标 / 场景图像分类基准测试中最先进的结果。
Sep, 2015
提出了一种具有遗忘门的分层门控递归神经网络 (HGRN) 模型,其中遗忘门受可学习值下界限制,使得上层能够建模长期依赖,而下层能够建模更局部、短期的依赖关系。通过在语言建模、图像分类和长距离竞技场测试中进行实验,证明了该模型的高效性和有效性。
Nov, 2023
本文对于近三十年来产生和实践了重要的循环神经网络(RNN),LSTM 和 BRNN 等模型的研究进行综述,旨在提供一个自成体系的最前沿阐述和历史视角,并引用了相关研究文献。
May, 2015