Aug, 2023
递归神经网络在符合遍历性数据序列上训练的核极限
Kernel Limit of Recurrent Neural Networks Trained on Ergodic Data
Sequences
TL;DR开发数学方法来表征随着隐藏单元数量、数据样本序列、隐藏状态更新和训练步骤同时趋向于无穷大,递归神经网络(RNN)的渐近特性。通过研究联合随机代数方程的无穷维ODE的解,我们证明了简化权重矩阵的RNN收敛到一个无穷维ODE的解与固定点耦合。这项分析需要解决针对RNN独特的几个挑战,而标准的均场技术无法应用于RNN,因此我们开发了一种用于RNN记忆状态演进的固定点分析方法,并对更新步骤和隐藏单元数量给出了收敛估计。当数据样本和神经网络规模趋向于无穷大时,这些数学方法导致了RNN在数据序列上训练时的神经切向核(NTK)极限。