Feb, 2016
权重归一化:一种简单的重参数化方法加速深度神经网络训练
Weight Normalization: A Simple Reparameterization to Accelerate Training of Deep Neural Networks
Tim Salimans, Diederik P. Kingma
TL;DR本研究介绍了一种重量归一化方法,通过重新参数化神经网络中的权向量来改善优化问题的条件,并加速随机梯度下降的收敛速度,从而可以应用于各种模型和应用中,如 LSTMs,神经网络生成模型和深度强化学习。