Mar, 2024

线性约束权重:减少激活漂移以加快神经网络的训练

TL;DR在本文中,我们首先识别到神经网络中的激活偏移现象,通过线性约束权重(LCW)来减小激活偏移,研究了减小激活偏移对神经网络中变量方差的影响,并讨论其与梯度消失问题的关系。实验结果表明,LCW 能够通过解决梯度消失问题有效地训练具有 sigmoid 激活函数的深度前馈网络,并结合批标准化能够改善前馈和卷积网络的泛化性能。