有限贝叶斯神经网络的精确边缘先验分布
本文为解决 Bayesian 深度学习中的先验分布选择困难性问题,提出了一种基于 Gaussian processes 的新颖的功能先验分布匹配框架,该框架可通过 Markov chain Monte Carlo 方法进行可扩展的先验分布采样,从而显著提高了性能。
Nov, 2020
本文研究基于高斯过程的无限宽神经网络的有限宽度情况,通过积分消除随机变量实现层间激活分布的跟踪,推导出非高斯过程作为其先验,并发展了一种弱非高斯先验下的贝叶斯推断扰动程序。
Sep, 2019
研究了使用 Gaussian weight prior 和一类 ReLU 类非线性函数的深度贝叶斯神经网络形成的单位激活层级的先验分布随层级深度加深而变得更重尾的正则化效应。
Oct, 2018
本文研究无限宽深层神经网络和高斯过程的等价性,提出一种计算高斯过程协方差函数的有效方法,并使用该方法在 MNIST 和 CIFAR-10 上进行了贝叶斯推断,在网络宽度增加时,训练神经网络的准确率和 GP 预测的不确定性分别增加,而有限宽度训练网络越接近 GP,测试性能越好,GP 预测通常优于有限宽度网络的预测,最后将这些 GP 的性能与随机神经网络的信号传播理论相联系。
Nov, 2017
本文研究深度学习模型的不确定性估计问题,基于神经网络高斯过程构建了一个概率模型,能够更好地校准模型并比较有限和无限宽模型的表现差异,同时也考虑了分类问题和迁移学习等实际应用场景。
Oct, 2020
在此研究中,我们对多输出和卷积层的有限宽度结构的函数统计提供了严格的结果,从而更接近完整描述贝叶斯设置中特征学习的过程。我们的结果包括:(i)一个对于输出的联合先验分布的确切且简单的非渐近积分表示,以高斯混合形式给出;(ii)在均方误差损失函数(高斯似然)的情况下,后验分布的解析公式;(iii)利用大偏差理论对特征学习无限宽度域进行定量描述。从物理角度看,具有多个输出或卷积层的深层结构代表了核形状重整化的不同表现形式,我们的工作提供了将这种物理直觉和术语转化为严格的贝叶斯统计的字典。
Jun, 2024
使用贝叶斯方法进行深度神经网络(BNNs)训练在广泛应用中受到了极大关注,并且已被有效地应用于各种情况。然而,大多数关于对 BNNs 的后验集中性质的研究仅在具有稀疏或重尾先验的 BNN 模型中证明结果。令人惊讶的是,目前还没有关于使用最常用的高斯先验进行 BNNs 的理论结果存在。这种理论缺乏是由于没有非稀疏且具有有界参数的深度神经网络(DNNs)的近似结果。在本文中,我们提出了一个新的近似理论,用于具有有界参数的非稀疏 DNNs。此外,基于该近似理论,我们表明具有非稀疏一般先验的 BNNs 可以以接近最小最优后验集中速率接近真实模型。
Mar, 2024
通过研究两种常见的变分方法,该文证明了在低不确定性区域之间不存在过多信息增加的情况,并提供了深度神经网络中的柔性不确定性估计的近似贝叶斯后验分布,但发现了类似于单隐层 ReLU 情况的病理现象。
Sep, 2019
我们在贝叶斯框架中考虑深度神经网络,采用随机网络权重的先验分布。根据 Agapiou 和 Castillo(2023)的最新观点表明,重尾先验分布实现了对平滑性的自适应,我们提出了一个简单的基于重尾权重和 ReLU 激活的贝叶斯深度学习先验。我们证明了相应的后验分布在非参数回归、几何数据和 Besov 空间等多种情况下实现了近乎最优的极小极小收缩率,同时对底层函数的内在维度和平滑性进行了自适应。虽然迄今为止大多数方法需要在先验分布中内置一种模型选择的形式,我们方法的一个关键方面是它不需要对网络架构进行超参数采样学习。我们还提供了结果的变分贝叶斯对应物,表明均场变分近似仍然从近乎最优的理论支持中受益。
Jun, 2024
本研究研究使用随机梯度下降算法训练的神经网络的权重统计数据,发现卷积神经网络和 ResNet 的权重显示出强烈的空间相关性,而全连接网络则显示出重尾的权重分布,根据这些观察得出更好的先验可以提高对各种图像分类数据集的性能。
Feb, 2021