Aug, 2023

递归神经网络在符合遍历性数据序列上训练的核极限

TL;DR开发数学方法来表征随着隐藏单元数量、数据样本序列、隐藏状态更新和训练步骤同时趋向于无穷大,递归神经网络(RNN)的渐近特性。通过研究联合随机代数方程的无穷维 ODE 的解,我们证明了简化权重矩阵的 RNN 收敛到一个无穷维 ODE 的解与固定点耦合。这项分析需要解决针对 RNN 独特的几个挑战,而标准的均场技术无法应用于 RNN,因此我们开发了一种用于 RNN 记忆状态演进的固定点分析方法,并对更新步骤和隐藏单元数量给出了收敛估计。当数据样本和神经网络规模趋向于无穷大时,这些数学方法导致了 RNN 在数据序列上训练时的神经切向核(NTK)极限。