May, 2018

生成网络中最后一层的批标准化

TL;DR本文研究了 Generative Networks 的训练问题,发现在最终 generator 的层里使用 Batch Normalization 有利于快速训练,特别是将 Batch Normalization 放在最后一层的非线性激活函数之前或替代掉最后的 tanh 激活函数,可以有效地与目标分布的图像颜色值匹配。