无限深度的神经网络作为扩散过程
研究了全连接前馈深度神经网络中对称中心稳定分布下权重和偏置的独立同分布,证明了相应加权后权重的无穷宽极限是一种随机过程,其有限维分布是多元稳定分布。这一极限过程被称为稳定过程,并且扩展了最近利用高斯无穷宽极限进行的研究线路。
Mar, 2020
本文研究了深度潜变高斯模型中的神经 SDEs,并采用随机流理论基于维纳空间开发出一种变分推理框架,利用黑盒 SDE 求解器和自动微分进行端到端推理。
May, 2019
我们研究了具有随机初始化参数和修正线性单元激活函数的大类浅层神经网络,并证明了这些随机神经网络是良定义的非高斯过程,由脉冲白噪声(随机狄拉克测度的组合)驱动的随机微分方程的解。这些过程由权重和偏置的分布以及输入域中每个有界区域中激活阈值的密度所参数化。我们证明这些过程是等向的,同时具有 Hurst 指数为 3/2 的广义自相似性,并导出了它们的自协方差函数的一个非常简单的闭式表达式。我们的结果从非渐近的视角来看与先前的工作有本质不同:输入域中每个有界区域(即宽度)的神经元数量本身是一个具有泊松分布的随机变量,并且其均值与密度参数成比例。最后,我们证明在适当的假设下,当期望宽度趋于无穷大时,这些过程除了能收敛到高斯过程外,还能收敛到依赖于权重分布的非高斯过程。我们的渐近结果提供了一种新的方法来看待几个经典结果(宽网络收敛到高斯过程)以及一些新结果(宽网络可以收敛到非高斯过程)。
May, 2024
本文介绍了在连续深度贝叶斯神经网络中进行可扩展的近似推断的方法,借助随机微分方程给出了隐藏单元,并使用基于梯度的随机变分推断和新的梯度估计器,这种方法使连续深度贝叶斯神经网络具有和离散深度替代方法同样的竞争力,并继承了神经 ODE 的内存高效训练和可调节精度。
Feb, 2021
本文介绍了一种基于偏微分方程框架的深度残差神经网络和相关学习问题的方法,并研究了前向问题的稳定性和最优性,同时探究了神经网络、PDE 理论、变分分析、优化控制和深度学习之间的算法和理论联系。
May, 2019
本研究探讨了具有稳定分布参数的深度神经网络的大宽度特性,结果表明稳定 NNs 的缩放和其无限宽极限的稳定性可能取决于激活函数的选择。
Apr, 2023
这篇论文揭示了深度人工神经网络在 Kolmogorov PDEs 数值逼近中克服了维数灾难的现象。我们证明了所用 DNN 模型的参数数量在 PDE 维数 d 和逼近精度的倒数 ε 的倒数中,最多呈多项式增长。
Sep, 2018
通过数值实验,我们研究了 Residual 网络的权重性质和与深度有关的规模,在某些网络结构下得到了另一种常微分方程的极限,这表明了深度 ResNets 的极限模型不完全适用于神经正则微分方程。
May, 2021
通过平均场理论研究未经训练的神经网络的行为,并显示相应的深度尺度限制了信号在这些随机网络中传播的最大深度;研究表明,dropout 破坏了有序到混沌临界点,因此强烈地限制了随机网络的最大可训练深度;我们开发了后向传播的平均场理论,证明了有序和混沌相位分别对应于梯度消失和梯度爆炸的区域。
Nov, 2016