适用于循环神经网络的广义张量模型
本文通过引入一种称为 “起始 - 终止分离等级” 的度量方式,证明了深度循环网络相较于其浅层对应版本在建模长时依赖方面具有压倒性的优势,并通过量子张量网络的工具获取了更多的图形洞见。
Oct, 2017
本文证明 Tensor Train 分解的一类循环神经网络的表达能力理论上是指数级别的,与 Hierarchical Tucker 张量分解所对应的深度卷积网络相比,使用 RNN 对图像进行逐块处理可以比使用仅具有一个隐藏层的 (浅层) 卷积网络更加高效。
Nov, 2017
本文针对使用 ReLU 非线性函数的循环神经网络提出一种修改后的权重初始化策略,并通过三个长期时间结构遵循的玩具问题以及一个基准动作识别问题的实验结果证实了该策略的有效性。
Nov, 2015
本文通过分析两个合成数据集来研究 RNNs 在处理长期依赖问题时的信息存储方法,并阐明了几种不同类型信息在 RNNs 中如何存储,这同时解释了最近采用的指定初始化或转移矩阵约束的方法的成功。
Feb, 2016
本文提出了使用全容量矩阵优化可微分流形上的酉矩阵的全容量 URNN,以解决循环神经网络中的梯度消失和爆炸问题,并证明了该参数化在隐藏状态维度大于 7 时具有受限制的容量,实验结果表明新模型在合成和自然数据上均具有优异的性能。
Oct, 2016
本文介绍了多维循环神经网络 (MDRNNs) 的概念,扩展了循环神经网络 (RNNs) 在视觉、视频处理、医疗影像等领域的应用,同时避免了其它多维模型所面临的缩放问题。笔者提供了两个图像分割任务的实验结果。
May, 2007
本文研究基于随机初始化的循环神经网络(RNN)的训练和泛化,提出了两个改进:1)无需归一化条件就能学习某些显著概念类的函数;2)能够学习输入序列的 N 元函数形式 f(β^T [X_{l_1},...,X_{l_N}]),该函数类别不属于可加分概念类,当其中某个 N 或者 l_0 较小时,f 能以接近于多项式级别的迭代次数和样本数进行学习。
Sep, 2021
通过使用 Tensor-Train 分解来分解 RNN 中的高维输入矩阵,尽管架构比其他模型简单得多,但在分类实验中仍能够实现与最先进的模型相媲美的性能,这为建模高维序列数据提供了一种新的基础模块,并打开了从其他领域(如自然语言处理)传输表达和先进模型的多种可能性。
Jul, 2017
本文研究使用带有 ReLU 的深度神经网络能够代表的函数家族,提供了一个训练一个 ReLU 深度神经网络的一种算法,同时提高了在将 ReLU 神经网络函数逼近为浅层 ReLU 网络时已知下限的上界,并证明了这些间隙定理。
Nov, 2016