本研究证明,当深度趋近于无限时,共享同一权重矩阵的 ResNet 类型深度神经网络上的随机梯度下降收敛于神经 ODE 的随机梯度下降,并且相应的值 / 损失函数收敛。我们的结果为考虑神经 ODE 作为 ResNet 的深度极限提供了理论基础。我们的证明基于相关 Fokker-Planck 方程的衰减估计。
Jun, 2019
深度残差网络与神经常微分方程之间的离散化联系被建立,证明了在特定条件下网络收敛至全局最小值。
Sep, 2023
本文研究基于连续时间参数的 ODE 类模型及其泛化界限,并探讨其与深度残差网络的类比关系,说明权重矩阵之间的差异对于神经网络的泛化能力有何影响。
May, 2023
本研究将深度残差网络解释为普通微分方程,并由此开发出一种稳定和可逆的深度神经网络理论框架,以及提出了三种可任意加深的可逆神经网络架构,实现了对深度网络的记忆高效实现,并且通过实验证明了本文方法在 CIFAR-10,CIFAR-100 和 STL-10 等数据集上取得了明显的优于现有强基准的性能表现,并且能够通过使用更少的训练数据来训练神经网络。
Sep, 2017
本文研究了残差神经网络模型,并展示了该模型的深层级极限的收敛问题,证明了残差神经网络模型的优化参数在深层级极限的情况下是收敛的。
Oct, 2018
该研究论文研究了残差网络(ResNets)在监督学习中的作用,提出了其作为 ODEs 的时空近似,并探讨了通过 ResNets 中残差块的数量和表达能力的增加来逼近 ODEs 的解,并推导了一定规则下获得预定精度所需的残差块复杂性的估计。
Oct, 2019
本研究介绍了一种新型连续神经网络框架 Neural SDE,该框架自然地融合了基于随机噪声注入的各种常用正则化机制,可用于输入干扰和非对抗性扰动的鲁棒建模,并可实现更好的泛化性能和对抗性强化训练。
本文提出了一种 ResNet 风格的神经网络架构,编码非扩张(1-Lipschitz)算子,不同于普通的 ResNet 架构,该架构的 Lipschitz 常数不会随着网络深度的增加而呈指数级增长。进一步分析表明,权重的谱范数可以进一步约束,以确保网络是平均算子,使其成为 Plug-and-Play 算法中学习去噪器的自然候选物。通过一种新颖的自适应方法实现了谱范数约束,证明了即使有这些约束,也可以训练出性能良好的网络。提出的架构应用于对抗鲁棒图像分类问题,图像去噪以及反问题退化模糊。
Jun, 2023
本文介绍了一种基于偏微分方程框架的深度残差神经网络和相关学习问题的方法,并研究了前向问题的稳定性和最优性,同时探究了神经网络、PDE 理论、变分分析、优化控制和深度学习之间的算法和理论联系。
May, 2019
证明了任何拓扑同胚都可以用在 $p$- 维欧几里得空间上的神经 ODE 或 i-ResNet 逼近,且也同时表明,用单个线性层对神经 ODE 或 i-ResNet 进行修整,就足以将模型变为非可逆连续函数的通用逼近器。
Jul, 2019