BriefGPT.xyz
Jun, 2021
随机反向传播权重的梯度下降的收敛和对齐
Convergence and Alignment of Gradient Descentwith Random Back propagation Weights
HTML
PDF
Ganlin Song, Ruitu Xu, John Lafferty
TL;DR
该论文研究“反馈对齐”算法的数学特性,通过分析二层网络在平方误差损失下的收敛和对齐,证明在过度参数化的情况下,误差会以指数速度收敛,以及参数对齐需要正则化。该成果对我们理解生物学可行的算法如何不同于Hebbian学习方法,具有与非本地反向传播算法相当的性能提供了方法。
Abstract
Stochastic gradient descent with
backpropagation
is the workhorse of
artificial neural networks
. It has long been recognized that
backpropagation
→