贝叶斯超网络
本文将神经网络中的乘性噪声重新解释为辅助的随机变量,并将其引入贝叶斯神经网络的变分设置中。通过使用这种解释,我们展示了通过采用标准化流来改进近似后验估计的高效性和简单性,同时仍允许局部重新参数化和可计算较低的下界。通过实验证明,基于这种新近似方法的贝叶斯神经网络方法在预测准确性和不确定性方面都有显著提高。
Mar, 2017
使用变分贝叶斯方法和后向传播裁剪算法等对循环神经网络进行训练,大幅降低了参数数量和提高了贝叶斯逼近性能。在语言建模和图像描述等任务中,贝叶斯循环神经网络优于传统循环神经网络。
Apr, 2017
该论文介绍了Bayes by Hypernet,一种新的变分逼近方法,通过将超网络视为隐式分布来解决现代神经网络在未见过的、嘈杂的或标记错误的数据上过于自信,并且不能产生有意义的不确定性度量的短板,本文在MNIST和CIFAR5任务中表现优异且最具鲁棒性,同时满足复杂度、可扩展性和准确度的要求。
Nov, 2017
通过对Softplus函数的输出进行归一化,我们为具有变分推断的贝叶斯卷积神经网络引入了一种新的分类任务的不确定性估计方法。我们展示了这种可靠的变分推断方法如何作为各种网络架构的基本构造,并在多个数据集(MNIST,CIFAR-10,CIFAR-100)中的监督学习设置中实现与同一架构的频率主义推断相同的性能。
Jun, 2018
本研究提出两种创新方法以将变分贝叶斯转化为贝叶斯神经网络的稳健推理工具:一种新的确定性方法用于逼近神经网络的矩,消除了梯度方差;一种参数的分层先验和自动选择先验方差的新的经验贝叶斯程序。将这两种方法结合起来,所得到的方法高效而稳健,在异方差回归应用中表现出了很好的预测性能。
Oct, 2018
本文介绍一种基于子网络推断框架和线性Laplace逼近的贝叶斯深度学习方法,用于提高深度神经网络的预测精度和有效性。在子网络中推断出如此表达力强大的后验逼近,该方法得以比全网络的后验逼近和Ensembles方法实现更好的效果。
Oct, 2020
本研究提出了一种名为'prior重定向'的方法,通过将贝叶斯神经网络后验变换为一种与BNN先验KL散度消失的分布,使用prior重定向,可以开发出更快的MCMC后验抽样算法,相较于未采用重参数化的标准BNN,我们观测到全连接和残差网络的有效样本量最高可提高50倍。
Jun, 2022
我们提出了使用神经采样器来近似复杂多模态和相关后验分布的隐式分布的方法,并介绍了一种新的采样器架构,允许以百万个潜变量为基础的隐式分布,通过可微的数值逼近解决计算问题。我们的实证分析表明,我们的方法能够恢复大型贝叶斯神经网络中层间的相关性,这对网络的性能非常关键,但是一直以来都非常难实现。通过下游任务的实验,我们证明了我们的表达性后验优于最先进的不确定性量化方法,验证了我们的训练算法的有效性和学习出的隐式逼近的质量。
Oct, 2023
本论文介绍了一种将大型神经网络装备上模型的不确定性的方法,并应用了这个方法在ResNet-50和深度图像先验网络上进行了实验。
Apr, 2024