Jul, 2020

从迭代逼近逆推导差分目标传播

TL;DR本文通过学习每一层的逆函数的形式,提出了一种目标传播方法,它是微分的,即目标是前向传播的一个小扰动,产生了一种近似高斯牛顿梯度下降优化的更新规则。除了比反向传播具有更好的生物学可行性之外,它还可能提供更强的隐含优化过程。在考虑了本地自编码器的情况下,说明了这些迭代过程在每一层上的局部自编码器上计算以实现更精确的反演,并表明如果自编码函数减去恒等函数具有小于 1 的 Lipschitz 常数,则这些迭代程序会指数快地收敛。我们还提出了一种方法来规范每一层的变化,以考虑每一层对输出的相对影响,使得更具影响力的层的权重变化更大,就像在普通的反向传播中使用梯度下降一样。