ICLRJun, 2017

Proximal Backpropagation

TL;DR提出了一种新的算法 ProxProp,它通过隐式步骤而不是显式步骤更新神经网络训练期间的网络参数,该算法从后向传播算法的一般观点出发设计,将预测误差的反向传播与序列梯度下降步骤等效对应到二次惩罚能量上,具有下降方向的参数空间和与常见的一阶优化器 Adam 等相结合的优点。