本文研究基于随机初始化的循环神经网络(RNN)的训练和泛化,提出了两个改进:1)无需归一化条件就能学习某些显著概念类的函数;2)能够学习输入序列的 N 元函数形式 f(β^T [X_{l_1},...,X_{l_N}]),该函数类别不属于可加分概念类,当其中某个 N 或者 l_0 较小时,f 能以接近于多项式级别的迭代次数和样本数进行学习。
Sep, 2021
本文研究了如何在训练多层神经网络时,通过采用类局部搜索方法(如随机梯度下降)避免陷入不良局部最小值,在给定非凸非光滑结构的情况下,它们如何适应随机标签;研究了在神经网络中如何使用 ReLU 激活函数避免指数梯度爆炸或消失;通过构建扰动理论,该理论可用于分析 ReLU 激活的多层网络的一阶数学逼近。
Oct, 2018
本文介绍了一种用于解决长期依赖的神经网络结构 —— 循环神经网络,并通过对语言建模等实验得出其同 LSTM 网络有着类似的性能表现。
Dec, 2014
研究对循环神经网络的推广能力,通过探究四种变体,包括最小门单元、长短期记忆和卷积循环神经网络,建立了 PAC-Learning 框架下的推广界限,并在额外的规范假设下建立了更加精细的推广界限,与现有结果相比,说明了这些变体在推广中的优势。
Oct, 2019
本文对循环神经网络的基本原理、最新进展和研究挑战进行了说明,介绍了针对学习长期依赖问题的新进展,适合该领域的新手和专业人士。
Dec, 2017
本研究对长短期记忆网络的归纳学习能力进行了实证评估,发现在不同的训练设置下模型性能存在显著差异,并强调在提出神经网络模型的学习能力时需要进行仔细的分析和评估。
Nov, 2018
本文通过对两种循环神经网络的实验研究,证明了正则正负推理算法是深度神经网络能否表示和学习时间序列中的长期依赖的可靠工具。此外,本文发现在同种实验中简单循环神经网络在最难的实验中表现出色,长短时记忆网络的表现总体上比简单循环神经网络差。
May, 2017
本文对于近三十年来产生和实践了重要的循环神经网络(RNN),LSTM 和 BRNN 等模型的研究进行综述,旨在提供一个自成体系的最前沿阐述和历史视角,并引用了相关研究文献。
May, 2015
本文研究证明可学习门控在循环神经网络中提供输入数据的时间转换几乎不变性的功能,从而为长期依赖性和参数初始化提供了新的可能性。
Mar, 2018
本文研究了使用不同非线性激活函数的循环神经网络(RNNs)的理论效率,表明它们也具有普适性和深度效率的特性,并通过计算实验证实了这一理论结果。
Jan, 2019