本文通过随机分析弱收敛方法证明单层神经网络模型在隐藏单元数量和随机梯度下降迭代次数均较大时存在中心极限定理;结果表明网络在平均场极限周围的波动符合高斯分布,并且满足一些随机偏微分方程。
Aug, 2018
本文提出了一种适用于深度神经网络的缩放极限的解决方案,其权重可由被描述为平均场模型的理想粒子近似表示,该问题的关键在于我们的 McKean-Vlasov 问题存在唯一解。
Jun, 2019
本文发现随着神经元数量的增加,经过适当的缩放和随机梯度下降动力学,多层神经网络的行为变得独立于神经元数量,发展了一个形式体系来捕捉这种多神经元限制行为,相关实验证实了这种独立性的存在。
Feb, 2019
本文通过对深度残差网络进行连续极限的解释,提出了一种新的深度残差网络连续极限,推导出了多层神经网络在平均场规则下的首个全局收敛结果,并提出了几种基于新连续模型的训练方案,其中之一的训练程序在基准数据集上表现出很强的实证性能。
Mar, 2020
本文研究了神经网络的随机分析,通过解决技术上的一些难点,证明了在大规模网络和大规模随机梯度下降训练迭代的渐近情况下,神经网络参数的经验分布收敛于一个非线性偏微分方程的解,此结果可以被认为是神经网络的大数定律。此外,我们的分析结果发现神经网络的训练参数渐近独立,这被称为 “混沌传播” 性质。
May, 2018
本文探讨利用随机梯度下降学习两层神经网络,将神经网络权重的演化近似为概率分布在 R^D 空间中的演化,从而得到概率分布的梯度流方程。我们分析了隐藏单元数量与数据规律性之间的相关性,扩展了此结果到无界激活函数的情况,将此结果应用到噪声随机梯度下降过程中,并展示了如何通过平均场分析特殊限制条件下的核岭回归。
本研究发展了多层神经网络的数学严格框架,探究其在平均场条件下的学习轨迹,并证明了一些神经网络的性质,包括全局收敛性和初始化的影响。其中的新概念包括概率嵌入和双向多样性。
Jan, 2020
本文在均场条件下证明了三层无正则化前馈神经网络的全局收敛性,首先建立起三层网络的均场极限,并证明了在合适的收敛模式假设和正则性假设下具有全局收敛保证。
May, 2021
本论文在研究多层神经网络的优化问题,发现随机梯度下降算法会收敛到一个全局最优点,且这一点具有很好的泛化能力。结果表明,适当的尺度下,随机梯度下降动态可以通过某个非线性偏微分方程捕捉,从而证明了 SGD 的收敛性。
Apr, 2018
研究神经网络在梯度下降中的表现,证明了 2 范数的上限可以帮助在训练过程中控制一般化误差,数值实验结果与理论结果相符合。
Aug, 2020