ICMLNov, 2018

自适应优化方法实现神经网络的贝叶斯实用学习

TL;DR提出了一个新的框架,基于自适应优化算法(如 AdaGrad 和 Adam)的新的概率解释,估计神经网络权重的后验分布,并通过实验证明了学习到的不确定性能够正确地与权重的预测能力相关,并且在多臂赌博机的 Thompson 抽样设置中与标准方法的表现相比,Badam 方法的推导不确定性估计的质量是足够好的。