Dec, 2017

用于内存优化的 DNN 训练的原地激活批量归一化

TL;DR本文提出了 InPlace-ABN 的方法,通过替代传统的 BatchNorm 和 Activation 层,以及在反向传播中恢复所需的信息来减少现代深度神经网络的占用内存,从而实现对已有深度学习框架的方便应用。使用该方法进行图像分类时,我们在 ImageNet-1k 上展示出与其他先进方法相当的结果,并在 COOC-Stuff、Cityscapes 和 Mapillary Vistas 等需要占用大量内存的语义分割任务中取得了最新的、与单尺度、单模型情况下的最佳结果。