Jan, 2018

通过方差漂移理解Dropout和Batch Normalization之间的不协调性

TL;DR本文通过理论和统计分析探讨了为何结合 Dropout 和 Batch Normalization 会导致神经网络预测准确率下降的问题,发现该组合会引起特定神经元的方差转移并导致预测不稳定,提出了一些修改 Dropout 的策略来避免方差转移的风险。