有限宽度下的非高斯过程与神经网络
研究使用高斯过程模拟神经网络的兴趣越来越浓厚,本研究针对具有单隐藏层的大规模有限完全连接网络展示了输出在初始化时的高斯分布,同时发现该扰动的尺度与神经网络单元的数量成反比例关系,高阶项逐渐衰减,进而回复到 Edgeworth 扩展的形式;最后观察到理解该扰动在训练期间如何改变,将有助于展示高斯过程框架在模拟神经网络行为时的适用范围。
Aug, 2019
本文研究了随机初始化的宽神经网络能否通过高斯过程来近似。我们在一个无限维函数空间中建立明确的收敛速率,说明了两种不同的情况:同时激活函数的次数和函数的平滑度会决定高斯过程的收敛速度。
Feb, 2021
本文提出了一种基于高斯随机变量尺度混合的 NNGPs 模型,并利用先验分布在最后一层参数上引入尺度先验,使得任何架构的无穷宽神经网络都能转化为一种更丰富的随机过程,通过实验进一步证明了该模型在回归和分类任务方面的可行性和鲁棒性。
Jul, 2021
我们研究了具有随机初始化参数和修正线性单元激活函数的大类浅层神经网络,并证明了这些随机神经网络是良定义的非高斯过程,由脉冲白噪声(随机狄拉克测度的组合)驱动的随机微分方程的解。这些过程由权重和偏置的分布以及输入域中每个有界区域中激活阈值的密度所参数化。我们证明这些过程是等向的,同时具有 Hurst 指数为 3/2 的广义自相似性,并导出了它们的自协方差函数的一个非常简单的闭式表达式。我们的结果从非渐近的视角来看与先前的工作有本质不同:输入域中每个有界区域(即宽度)的神经元数量本身是一个具有泊松分布的随机变量,并且其均值与密度参数成比例。最后,我们证明在适当的假设下,当期望宽度趋于无穷大时,这些过程除了能收敛到高斯过程外,还能收敛到依赖于权重分布的非高斯过程。我们的渐近结果提供了一种新的方法来看待几个经典结果(宽网络收敛到高斯过程)以及一些新结果(宽网络可以收敛到非高斯过程)。
May, 2024
研究了有限宽度的贝叶斯神经网络的函数空间先验,包括深度线性网络和有限的 ReLU 网络,并以 Meijer-G 函数的形式给出了先验表达式,结果统一了以前对于有限网络先验的描述。
Apr, 2021
本文研究无限宽深层神经网络和高斯过程的等价性,提出一种计算高斯过程协方差函数的有效方法,并使用该方法在 MNIST 和 CIFAR-10 上进行了贝叶斯推断,在网络宽度增加时,训练神经网络的准确率和 GP 预测的不确定性分别增加,而有限宽度训练网络越接近 GP,测试性能越好,GP 预测通常优于有限宽度网络的预测,最后将这些 GP 的性能与随机神经网络的信号传播理论相联系。
Nov, 2017
本研究研究了深度神经网络和高斯过程之间的联系,指出在广泛的条件下,随着体系结构越来越宽,隐含的随机函数在分布上会趋于高斯过程,并使用最大平均偏差评估收敛速率。最后,将贝叶斯深度网络与高斯过程进行比较,并从文献中回顾了非高斯替代模型。
Apr, 2018
针对具有无界方差的神经网络权重的后验推断问题,提供了一种可解释且计算高效的条件高斯表达方法。该方法可利用高斯过程机器进行可行的后验推断和不确定性量化。
May, 2023
本文研究深度学习模型的不确定性估计问题,基于神经网络高斯过程构建了一个概率模型,能够更好地校准模型并比较有限和无限宽模型的表现差异,同时也考虑了分类问题和迁移学习等实际应用场景。
Oct, 2020