BNNpriors:具有不同先验分布的贝叶斯神经网络推断库
本研究研究使用随机梯度下降算法训练的神经网络的权重统计数据,发现卷积神经网络和 ResNet 的权重显示出强烈的空间相关性,而全连接网络则显示出重尾的权重分布,根据这些观察得出更好的先验可以提高对各种图像分类数据集的性能。
Feb, 2021
使用贝叶斯方法进行深度神经网络(BNNs)训练在广泛应用中受到了极大关注,并且已被有效地应用于各种情况。然而,大多数关于对 BNNs 的后验集中性质的研究仅在具有稀疏或重尾先验的 BNN 模型中证明结果。令人惊讶的是,目前还没有关于使用最常用的高斯先验进行 BNNs 的理论结果存在。这种理论缺乏是由于没有非稀疏且具有有界参数的深度神经网络(DNNs)的近似结果。在本文中,我们提出了一个新的近似理论,用于具有有界参数的非稀疏 DNNs。此外,基于该近似理论,我们表明具有非稀疏一般先验的 BNNs 可以以接近最小最优后验集中速率接近真实模型。
Mar, 2024
本研究提出了一种名为 'prior 重定向 ' 的方法,通过将贝叶斯神经网络后验变换为一种与 BNN 先验 KL 散度消失的分布,使用 prior 重定向,可以开发出更快的 MCMC 后验抽样算法,相较于未采用重参数化的标准 BNN,我们观测到全连接和残差网络的有效样本量最高可提高 50 倍。
Jun, 2022
本文提出了一种将先验知识通过外部摘要信息纳入贝叶斯神经网络中的简单方法,通过引入 Dirichlet 过程并推导相应的总结证据下限,将可用的摘要信息作为增广数据建模。使用本方法可以增强模型对分类任务难度和类别分布的了解,并在准确性、不确定性校准和对数据损坏的鲁棒性等方面表现良好。
Jul, 2022
本文为解决 Bayesian 深度学习中的先验分布选择困难性问题,提出了一种基于 Gaussian processes 的新颖的功能先验分布匹配框架,该框架可通过 Markov chain Monte Carlo 方法进行可扩展的先验分布采样,从而显著提高了性能。
Nov, 2020
我们在贝叶斯框架中考虑深度神经网络,采用随机网络权重的先验分布。根据 Agapiou 和 Castillo(2023)的最新观点表明,重尾先验分布实现了对平滑性的自适应,我们提出了一个简单的基于重尾权重和 ReLU 激活的贝叶斯深度学习先验。我们证明了相应的后验分布在非参数回归、几何数据和 Besov 空间等多种情况下实现了近乎最优的极小极小收缩率,同时对底层函数的内在维度和平滑性进行了自适应。虽然迄今为止大多数方法需要在先验分布中内置一种模型选择的形式,我们方法的一个关键方面是它不需要对网络架构进行超参数采样学习。我们还提供了结果的变分贝叶斯对应物,表明均场变分近似仍然从近乎最优的理论支持中受益。
Jun, 2024
研究了使用 Gaussian weight prior 和一类 ReLU 类非线性函数的深度贝叶斯神经网络形成的单位激活层级的先验分布随层级深度加深而变得更重尾的正则化效应。
Oct, 2018
研究表明, 使用全批处理的哈密顿蒙特卡罗方法可以提高贝叶斯神经网络的性能,并证明模型中选择的先验分布对性能的影响较小,但相比于深度集成、SGLD 等计算代价较小的方法,HMC 呈现出更接近于精确后验分布的预测分布;同时,研究发现贝叶斯神经网络在领域转移方面表现较差。
Apr, 2021