ICMLMay, 2015

神经网络中的权重不确定性

TL;DR提出了一种新的、高效的、基于 Backprop 的方法 Bayes by Backprop,用于在神经网络的权重上学习概率分布,通过最小化压缩成本(即变分自由能或边缘似然的预期下界)来规范权重。该方法在 MNIST 分类的任务上表现出与 dropout 相当的性能。在非线性回归问题中,学到的权重的不确定性可以用来提高泛化能力,并且可以用来驱动在强化学习中的探索和开发之间的平衡。