ICLRJan, 2013
将随机梯度推向二阶方法 —— 通过非线性变换的反向传播学习
Pushing Stochastic Gradient towards Second-Order Methods -- Backpropagation Learning with Transformations in Nonlinearities
Tommi Vatanen, Tapani Raiko, Harri Valpola, Yann LeCun
TL;DR本研究提出针对神经网络的三个转换方法,以近似二阶优化方法提高学习速度,但第三个转换可能因收敛到局部最优解且隐藏神经元的输入和输出接近零而对性能造成损害。