差异目标传播
本研究提出了利用重构为深度学习提供层本地的训练信号的方法,重构可以通过目标传播的形式进行传播,类似于反向传播,但有助于减少导数的依赖性以跨越许多水平的可能具有强非线性的学分任务,重构可以是一个更可能是其输入版本的重构,即更高似然性的方向上的小移动,目标传播还可以训练具有离散隐藏单元的深度网络。
Jul, 2014
本文通过学习每一层的逆函数的形式,提出了一种目标传播方法,它是微分的,即目标是前向传播的一个小扰动,产生了一种近似高斯牛顿梯度下降优化的更新规则。除了比反向传播具有更好的生物学可行性之外,它还可能提供更强的隐含优化过程。在考虑了本地自编码器的情况下,说明了这些迭代过程在每一层上的局部自编码器上计算以实现更精确的反演,并表明如果自编码函数减去恒等函数具有小于 1 的 Lipschitz 常数,则这些迭代程序会指数快地收敛。我们还提出了一种方法来规范每一层的变化,以考虑每一层对输出的相对影响,使得更具影响力的层的权重变化更大,就像在普通的反向传播中使用梯度下降一样。
Jul, 2020
本研究中,我们分析了一种叫做目标传播(TP)的替代反向传播(BP)的方法,从数学优化的角度进行了研究,并发现了它的基本限制。我们提出了一个创新性的重构损失来改善反馈权重训练,并通过允许直接反馈连接从输出到每个隐藏层来引入架构灵活性。实验结果表明,与差分目标传播(DTP)相比,性能得到了显著提高,并且前向权重更新与损失梯度的对准得到了改善。
Jun, 2020
本篇研究提出了 Fixed-Weight Difference Target Propagation(FW-DTP)算法,该算法在训练过程中保持反馈权重不变,以解决 Target Propagation(TP)算法存在的问题。结果表明,FW-DTP 算法可以为隐层提供有用的目标值,且在四个分类数据集上显著优于 Difference Target Propagation(DTP)算法。同时,文中也解释了 DTP 算法的反馈函数形式。
Dec, 2022
本文提出了一种新型的反馈权重训练方案,确保 DTP 逼近 BP,并且可以恢复逐层反馈权重训练,同时不会牺牲任何理论保证,实验证实了该理论,并报告了 DTP 在 CIFAR-10 和 ImageNet 32×32 上取得的最佳表现。
Jan, 2022
介绍 Equilibrium Propagation - 一种学习能量模型的框架,该模型仅涉及一种神经计算,并在两个阶段中执行,通过 Local perturbations,使预测从一个配置微调到减少预测误差的配置,并且在第二阶段向后传播的信号编码错误导数的梯度。
Feb, 2016
本文讨论了反向传播算法的神经可行性,研究了一种竞争性的局部学习规则和几种使权重传输过程更生物学可行的非局部学习规则,并提出了两条无需权重对称的神经实现学分分配的路径。
Feb, 2020
研究发现,通过局部学习规则,预测编码可以渐近(且实际上很快)地收敛到任意计算图上的精确反向传播梯度,这使得标准机器学习算法理论上可以直接用神经电路实现,从而为分布式神经形态结构的开发做出了贡献。
Jun, 2020
本文中,我们对反向传播(Backprop)算法以及信用分配问题进行了重新审视,提出了一个新的算法 ——Kickback。通过对其性能设立担保限度,我们分解反向传播为一系列交互式的学习算法,并将其误差信号分解。最后,我们给出了 Kickback 跟随误差梯度所需的充分条件,并证明了其在真实世界回归基准测试中的表现。
Nov, 2014
提出了 GAIT-Prop 算法,该算法是目标传播算法的一种改进形式,并与 Backpropagation 算法在某些条件下等价。该算法在神经网络训练中可以产生与传统 Backpropagation 算法几乎相同的性能表现,尤其在软正交性约束得到应用时。
Jun, 2020