May, 2018
生成网络中最后一层的批标准化
Batch Normalization in the final layer of generative networks
Sean Mullery, Paul F. Whelan
TL;DR本文研究了 Generative Networks 的训练问题,发现在最终 generator 的层里使用 Batch Normalization 有利于快速训练,特别是将 Batch Normalization 放在最后一层的非线性激活函数之前或替代掉最后的 tanh 激活函数,可以有效地与目标分布的图像颜色值匹配。