May, 2019
深度神经网络训练中对批量归一化和 Dropout 的再思考
Rethinking the Usage of Batch Normalization and Dropout in the Training of Deep Neural Networks
Guangyong Chen, Pengfei Chen, Yujun Shi, Chang-Yu Hsieh, Benben Liao...
TL;DR介绍了一种提高神经网络训练效率的新技术,该技术基于对神经网络输入进行白化处理以达到更快的收敛速度。通过结合 Dropout 和 Batch Normalization 实现独立成分层,该层优于基线方法,对 CIFAR10、100 和 ILSVRC2012 数据集有更稳定的训练过程,更快的收敛速度和更好的收敛极限,实现了对神经网络设计常规实践的重新思考。