BriefGPT.xyz
Mar, 2017
可变贝叶斯神经网络的乘法归一化流
Multiplicative Normalizing Flows for Variational Bayesian Neural Networks
HTML
PDF
Christos Louizos, Max Welling
TL;DR
本文将神经网络中的乘性噪声重新解释为辅助的随机变量,并将其引入贝叶斯神经网络的变分设置中。通过使用这种解释,我们展示了通过采用标准化流来改进近似后验估计的高效性和简单性,同时仍允许局部重新参数化和可计算较低的下界。通过实验证明,基于这种新近似方法的贝叶斯神经网络方法在预测准确性和不确定性方面都有显著提高。
Abstract
We reinterpret
multiplicative noise
in neural networks as auxiliary random variables that augment the approximate posterior in a
variational setting
for
→