Dropout 作为贝叶斯近似:附录
本研究发展了一种新的理论框架,将深度神经网络的 dropout 训练视为深高斯过程中的近似贝叶斯推断。我们的理论框架使我们能够通过 dropout 神经网络建模不确定性,从而解决了在深度学习中表示不确定性的问题,而不会牺牲计算复杂性或测试精度。
Jun, 2015
该论文介绍了一种基于变分推断的 dropout 新技术,并探讨了如何将其应用到 LSTM 和 GRU 模型中,这种方法表现优于现有技术,并在语言模型中取得了最佳结果。
Dec, 2015
将 Dropout 重新解释为贝叶斯神经网络的近似推理算法,提出了一个有用的理论框架,但对于使用不当的先验概率,存在未定义或病态行为的真后验分布问题;对于近似分布相对于真后验分布的奇异性而言,近似难以定义。为了解决这些问题,提出了 Quasi-KL(QKL)差异作为新的近似推理目标。
Jul, 2018
研究了深度神经网络的 dropout 正则化并提出了一种新的框架来理解深度神经网络中的加性噪声。研究了多种不同噪声并导出了其等价性,进而使 dropout 的 Monte Carlo 训练目标逼近了边缘 MAP 估计。进一步基于这些洞见提出了一种新的收缩框架用于深度神经网络,并对两种改进后的推理策略在回归基准测试中进行了调查。
Oct, 2018
该研究旨在通过一种单次 MC 退火的方法来提高贝叶斯变体深度神经网络的测试时间,同时保持不确定性测量的优点。经过基准测试和模拟游戏等方面的验证,该方法能够在实时部署 BDNNs 时实现预测分布的点估计和不确定性估计。
Jul, 2020
研究表明,Dropout 不仅是一种常用的 Deep Learning 正则化器,而且可以视为对网络参数进行近似贝叶斯推断的一种方式。该论文提出了一种名为 Generalized Dropout 的正则化器家族,并介绍了该家族的一些成员,如可训练参数版本的 Dropout++ 和选择神经网络层宽的方法。实验证明,这些方法比 Dropout 在泛化性能方面更好。
Nov, 2016
本文主要研究 dropout 在深度学习中的应用,发现 dropout 会在单隐藏层线性神经网络中导致隐藏节点的输入 / 输出权重向量模长相等,同时提供了 dropout 所导致的优化景观的完整特征描述。
Jun, 2018
本文通过将 dropout 看作一种可计算潜在变量的方法来理解其 Tractability,提出了 (approximate) expectation-linear dropout 神经网络,进一步分析了训练和推理中的推断 gap,并证明了通过规范化 dropout 培训目标可以有效地控制推断 gap。实验结果表明减少推断 Gap 可以提高图像分类性能。
Sep, 2016
通过研究两种常见的变分方法,该文证明了在低不确定性区域之间不存在过多信息增加的情况,并提供了深度神经网络中的柔性不确定性估计的近似贝叶斯后验分布,但发现了类似于单隐层 ReLU 情况的病理现象。
Sep, 2019