无需反向传播的宽神经网络训练方法:基于输入权重对齐的视角
研究深度人工神经网络中的反向传播学习算法与大脑神经元突触可塑性规律的类比,介绍了不依赖于对称前向和后向突触权重的算法,提出通过加强权重符号一致性的反馈对准法的修改,可以实现与反向传播法相当的性能。这些研究结果表明,促进前向和反馈权重对准的机制对于深度网络的学习是至关重要的。
Dec, 2018
本文研究神经网络的学习和泛化性能,发现对于宽神经网络,学习动态变得简单,并且在无限宽度的极限下,它们由网络初始参数的一阶泰勒展开得到的线性模型控制。同时,通过在广义上拟合高斯过程的理论,揭示了神经网络可能表现出高斯过程的特性。
Feb, 2019
通过使用反馈对齐算法,提出了一种生物相似性算法来替代反向传播,用一个稀疏的反馈矩阵可以显著改进数据移动和计算的效率,与反向传播相比,可以实现数量级的改进,并且可以在某些方面获得硬件优势,同时还可以获得具有可比性的结果。
Jan, 2019
通过数值实验,我们研究了Residual 网络的权重性质和与深度有关的规模,在某些网络结构下得到了另一种常微分方程的极限,这表明了深度 ResNets 的极限模型不完全适用于神经正则微分方程。
May, 2021
该论文研究“反馈对齐”算法的数学特性,通过分析二层网络在平方误差损失下的收敛和对齐,证明在过度参数化的情况下,误差会以指数速度收敛,以及参数对齐需要正则化。该成果对我们理解生物学可行的算法如何不同于Hebbian学习方法,具有与非本地反向传播算法相当的性能提供了方法。
Jun, 2021
该研究通过神经切向核(NTK)模式下的梯度下降探讨了训练一层过度参数化的ReLU网络,其中网络的偏置被初始化为某个常量而不是零。该初始化的诱人好处是神经网络将可以在整个训练过程中保持稀疏激活,从而实现快速训练。结果表明,在稀疏化后,网络可以实现与密集网络一样快的收敛速度。其次,提供了宽度稀疏性的相关性,给出了一个稀疏性相关的Rademacher复杂度和泛化性能界限。最后,研究了极限NTK的最小特征值,发现可以使用可训练偏置来提高推广性。
Jan, 2023
本文揭示了支持反馈对齐学习动力学的一组守恒定律,揭示了反馈对齐与梯度下降之间的有趣类比,挑战了这些学习算法根本不同的流行说法,并表明这些守恒定律阐明了ReLU网络中反馈矩阵的逐层对齐的充分条件,这将使得使用反馈对齐训练的两层线性网络收敛到最小化范数的解决方案。
Jun, 2023
本文研究反馈对准算法的梯度对准机制(gradient alignment),使用数学推理和模拟证明了梯度对准是该算法固定点的稳定性准则,但高度的梯度对准却不一定会导致良好的算法性能。
Jun, 2023
本研究解决了深度神经网络收敛时神经崩溃的理论证明问题,通过研究终止于至少两个线性层的神经网络,而不是之前的无约束特征模型。关键发现是,证明了在带权重衰减的梯度下降训练下,这种神经崩溃现象可以得到普遍性保证,从而为神经网络训练的理解提供了新的视角。
Oct, 2024