MMFeb, 2019

深度学习中的 ADMM:收敛和避免饱和

TL;DR本文提出了一种用于训练深度神经网络的交替方向乘子法,该方法能够有效地避免 Sigmoid 型激活函数饱和的问题,并且相较于常用的 ReLU 型激活函数,Sigmoid 型激活函数的逼近能力并不劣,通过实验证明,提出的交替方向乘子法对比 ReLU-SGD 算法在学习简单重要函数时表现更佳。