Feb, 2020

可学习的 Bernoulli Dropout 用于贝叶斯深度学习

TL;DR本文提出了可学习 Bernoulli dropout(LBD),它是一个新的模型无关的 dropout 方案,将 dropout 率视为参数,与其他模型参数一起联合优化,通过 Bernoulli dropout 的概率建模,LBD 实现了深度模型中更稳健的预测和不确定性量化。 与变分自编码器(VAEs)相结合时,LBD 可以实现灵活的半隐式后验表示,从而导致新的半隐式 VAE(SIVAE)模型。我们使用 Augment-REINFORCE-Merge(ARM)对与 dropout 参数训练相关的优化进行求解,这是一种无偏差和低方差的渐变估计器。我们在一系列任务上的实验表明,我们的方法相对于其他常用的 dropout 方案具有更优越的性能。总的来说,LBD 和 SIVAE 在图像分类和语义分割中提高了准确性和不确定性估计。此外,使用 SIVAE,我们可以在几个公共数据集上实现协作过滤器来进行隐式反馈的最先进的性能。