May, 2019

深度神经网络训练中对批量归一化和 Dropout 的再思考

TL;DR介绍了一种提高神经网络训练效率的新技术,该技术基于对神经网络输入进行白化处理以达到更快的收敛速度。通过结合 Dropout 和 Batch Normalization 实现独立成分层,该层优于基线方法,对 CIFAR10、100 和 ILSVRC2012 数据集有更稳定的训练过程,更快的收敛速度和更好的收敛极限,实现了对神经网络设计常规实践的重新思考。