Sep, 2022
批量层归一化,一种用于 CNNs 和 RNN 的新归一化层
Batch Layer Normalization, A new normalization layer for CNNs and RNN
Amir Ziaee, Erion Çano
TL;DR介绍了一种新的归一化层 Batch Layer Normalization(BLN),可以在深度神经网络中减少内部协变量偏移问题,通过适应性的权衡 mini-batch 和特征标准化,并且具有比批归一化和层归一化更快的收敛速度。