Apr, 2019

深度卷积神经网络中有效高效的 dropout

TL;DR本文主要研究卷积神经网络(CNNs)的正则化问题,提出了几种改进的 dropout 变体,通过在卷积操作之前放置 dropout 操作或将 BN 替换为 GN,以减少 dropout 和其后的 BN 之间的矛盾,以提高 CNNs 的训练效果和正则化。实验证明,通过这些方法构建的 CNN 的性能明显优于现有的 CNN,这主要归功于更好的正则化和隐式模型集成效应。