用于神经网络训练的随机反馈对齐算法:为什么能对齐?
研究深度人工神经网络中的反向传播学习算法与大脑神经元突触可塑性规律的类比,介绍了不依赖于对称前向和后向突触权重的算法,提出通过加强权重符号一致性的反馈对准法的修改,可以实现与反向传播法相当的性能。这些研究结果表明,促进前向和反馈权重对准的机制对于深度网络的学习是至关重要的。
Dec, 2018
通过使用反馈对齐算法,提出了一种生物相似性算法来替代反向传播,用一个稀疏的反馈矩阵可以显著改进数据移动和计算的效率,与反向传播相比,可以实现数量级的改进,并且可以在某些方面获得硬件优势,同时还可以获得具有可比性的结果。
Jan, 2019
该研究分析了模型 input-gradients 在解释性方面的问题,提出了将标准 softmax-based 分类器的 logits 重新解释为未归一化的数据密度,证明了 input-gradients 可以被视为隐含于判别模型中的类条件密度模型的梯度,并提出了通过 score-matching 来实现对隐含密度模型与数据分布的对齐的算法。研究表明,对齐隐含密度模型和数据分布可以提高梯度的结构性和解释性。
Jun, 2020
本文探讨了替代反向传播算法的方案,研究了直接反馈对神经视图合成、推荐系统、几何学习和自然语言处理的适用性,并发现该方案可以成功训练各种现代深度学习架构,其性能接近于微调的反向传播,支持在没有权重传输的情况下解决具有挑战性的任务。
Jun, 2020
该论文研究“反馈对齐”算法的数学特性,通过分析二层网络在平方误差损失下的收敛和对齐,证明在过度参数化的情况下,误差会以指数速度收敛,以及参数对齐需要正则化。该成果对我们理解生物学可行的算法如何不同于Hebbian学习方法,具有与非本地反向传播算法相当的性能提供了方法。
Jun, 2021
本文通过考虑神经元的宽度,利用神经切向核学习理论研究了神经网络在生物学中的可能模型,并提出了一种基于输入活动相关性的反向传播算法,该方法在低数据环境中表现出与反向传播相当的性能。
Jun, 2021
该研究提出了一种基于信息理论的新颖理论,解释了反馈对齐(Feedback Alignment)是如何通过将目标信息嵌入到神经网络中来学习有效表示,其表现与BP算法相比,且还考虑到了生物学方面的现象和理论,例如预测编码和表征漂移。
Apr, 2023
本文揭示了支持反馈对齐学习动力学的一组守恒定律,揭示了反馈对齐与梯度下降之间的有趣类比,挑战了这些学习算法根本不同的流行说法,并表明这些守恒定律阐明了ReLU网络中反馈矩阵的逐层对齐的充分条件,这将使得使用反馈对齐训练的两层线性网络收敛到最小化范数的解决方案。
Jun, 2023
用指数欧拉求解器训练神经网络,以准确近似真实的梯度下降动态系统,证明了Hessian矩阵的锐度增加是由于网络的逐层Jacobian矩阵对齐导致的,而对齐程度与数据集大小呈幂律关系,相关性系数在0.74到0.98之间。
May, 2024