Jul, 2019

可切换的规范化用于深度表示学习的规范化

TL;DR我们提出了可切换归一化(SN)来解决深度神经网络中学习正常化的问题。它有三个不同的范围来计算统计量(均值和方差),包括通道、层和mini-batch。SN通过学习它们的重要性权重来在它们之间切换。它适应各种网络架构和任务,对各种具有挑战性的基准如ImageNet表现非常出色,并且没有敏感的超参数。