Jun, 2019

基于贝叶斯原理的实用深度学习

TL;DR本研究利用自然梯度变分推理方法对深度神经网络进行实用性的训练,并通过批归一化、数据扩充和分布式训练等技术获得类似于 Adam 优化器的性能,即使在 ImageNet 等大型数据集上也是如此。此外,本研究验证了使用贝叶斯原理的好处:预测概率被很好地校准,超出分布数据的不确定性得到改善,并且持续学习性能得到提高。该研究旨在实现实用性的深度学习,并同时保留贝叶斯原理的好处。最后提供了一个 PyTorch 的实现优化器。