神经网络高斯过程的比例混合
本文研究基于高斯过程的无限宽神经网络的有限宽度情况,通过积分消除随机变量实现层间激活分布的跟踪,推导出非高斯过程作为其先验,并发展了一种弱非高斯先验下的贝叶斯推断扰动程序。
Sep, 2019
本文研究深度学习模型的不确定性估计问题,基于神经网络高斯过程构建了一个概率模型,能够更好地校准模型并比较有限和无限宽模型的表现差异,同时也考虑了分类问题和迁移学习等实际应用场景。
Oct, 2020
本研究结合随机神经网络和张量程序的概念,研究了神经网络的收敛性和梯度动态性,在多种不同体系下,从而表明了该框架不仅可以引导更强的高斯过程的设计,而且还可以深入理解现代架构中的 SGD 动态。
Feb, 2019
本研究研究了深度神经网络和高斯过程之间的联系,指出在广泛的条件下,随着体系结构越来越宽,隐含的随机函数在分布上会趋于高斯过程,并使用最大平均偏差评估收敛速率。最后,将贝叶斯深度网络与高斯过程进行比较,并从文献中回顾了非高斯替代模型。
Apr, 2018
研究使用高斯过程模拟神经网络的兴趣越来越浓厚,本研究针对具有单隐藏层的大规模有限完全连接网络展示了输出在初始化时的高斯分布,同时发现该扰动的尺度与神经网络单元的数量成反比例关系,高阶项逐渐衰减,进而回复到 Edgeworth 扩展的形式;最后观察到理解该扰动在训练期间如何改变,将有助于展示高斯过程框架在模拟神经网络行为时的适用范围。
Aug, 2019
本文研究无限宽深层神经网络和高斯过程的等价性,提出一种计算高斯过程协方差函数的有效方法,并使用该方法在 MNIST 和 CIFAR-10 上进行了贝叶斯推断,在网络宽度增加时,训练神经网络的准确率和 GP 预测的不确定性分别增加,而有限宽度训练网络越接近 GP,测试性能越好,GP 预测通常优于有限宽度网络的预测,最后将这些 GP 的性能与随机神经网络的信号传播理论相联系。
Nov, 2017
本文研究了随机初始化的宽神经网络能否通过高斯过程来近似。我们在一个无限维函数空间中建立明确的收敛速率,说明了两种不同的情况:同时激活函数的次数和函数的平滑度会决定高斯过程的收敛速度。
Feb, 2021
针对具有无界方差的神经网络权重的后验推断问题,提供了一种可解释且计算高效的条件高斯表达方法。该方法可利用高斯过程机器进行可行的后验推断和不确定性量化。
May, 2023
我们研究了具有随机初始化参数和修正线性单元激活函数的大类浅层神经网络,并证明了这些随机神经网络是良定义的非高斯过程,由脉冲白噪声(随机狄拉克测度的组合)驱动的随机微分方程的解。这些过程由权重和偏置的分布以及输入域中每个有界区域中激活阈值的密度所参数化。我们证明这些过程是等向的,同时具有 Hurst 指数为 3/2 的广义自相似性,并导出了它们的自协方差函数的一个非常简单的闭式表达式。我们的结果从非渐近的视角来看与先前的工作有本质不同:输入域中每个有界区域(即宽度)的神经元数量本身是一个具有泊松分布的随机变量,并且其均值与密度参数成比例。最后,我们证明在适当的假设下,当期望宽度趋于无穷大时,这些过程除了能收敛到高斯过程外,还能收敛到依赖于权重分布的非高斯过程。我们的渐近结果提供了一种新的方法来看待几个经典结果(宽网络收敛到高斯过程)以及一些新结果(宽网络可以收敛到非高斯过程)。
May, 2024
本文研究 Bayesian 神经网络,使用 Monte-Carlo NNGP 推断方法得到 NNGP 性能,探讨其在神经架构搜索中的应用,发现 NNGP 性能具有成本低廉、独立于训练度量且可以用于缩小大搜索空间或提高基于训练的性能度量的优点。
Nov, 2020