可实现大规模数据集的生物合理学习算法
通过15个不同的分类数据集系统性地调查BP算法的对称性依赖程度,研究结果表明:1.反馈权重的大小对性能没有影响;2.反馈权重的符号对性能影响显著,符号越一致性能越好;3.使用随机大小的反馈权重且符号完全一致时,性能相当甚至优于SGD;4.需要一些规范/稳定化才能使这种不对称BP算法起作用,即批量归一化(BN)和/或一种“批量曼哈顿”(BM)更新规则。
Oct, 2015
通过对MNIST、CIFAR-10和ImageNet数据集中的机器学习任务进行实验,我们提出和探究了目标传播和反馈对齐算法的变体,在全连接和局部连接的体系结构下,大部分算法都可以很好的完成MNIST数据集的任务。然而,我们发现在面对CIFAR和ImageNet数据集时,这些算法在局部连接的体系结构下表现不如反向传播算法,因此我们需要新的架构和算法来扩展这些方法。
Jul, 2018
研究深度人工神经网络中的反向传播学习算法与大脑神经元突触可塑性规律的类比,介绍了不依赖于对称前向和后向突触权重的算法,提出通过加强权重符号一致性的反馈对准法的修改,可以实现与反向传播法相当的性能。这些研究结果表明,促进前向和反馈权重对准的机制对于深度网络的学习是至关重要的。
Dec, 2018
通过使用反馈对齐算法,提出了一种生物相似性算法来替代反向传播,用一个稀疏的反馈矩阵可以显著改进数据移动和计算的效率,与反向传播相比,可以实现数量级的改进,并且可以在某些方面获得硬件优势,同时还可以获得具有可比性的结果。
Jan, 2019
本文讨论了反向传播算法的神经可行性,研究了一种竞争性的局部学习规则和几种使权重传输过程更生物学可行的非局部学习规则,并提出了两条无需权重对称的神经实现学分分配的路径。
Feb, 2020
提出一种基于信息瓶颈原理的学习规则,结合了核方法,并采用 3 要素的 Hebbian 结构,其不需要精确标签,且在图像分类任务上表现与反向传播算法接近。
Jun, 2020
该论文研究“反馈对齐”算法的数学特性,通过分析二层网络在平方误差损失下的收敛和对齐,证明在过度参数化的情况下,误差会以指数速度收敛,以及参数对齐需要正则化。该成果对我们理解生物学可行的算法如何不同于Hebbian学习方法,具有与非本地反向传播算法相当的性能提供了方法。
Jun, 2021
使用缩放定律研究了Direct Feedback Alignment(DFA)在训练因果解码器专用变压器的效率,在计算和数据需求方面没有超越反向传播,需要更多实证方法来更好地理解建模决策。
Oct, 2022
该研究提出了一种基于信息理论的新颖理论,解释了反馈对齐(Feedback Alignment)是如何通过将目标信息嵌入到神经网络中来学习有效表示,其表现与BP算法相比,且还考虑到了生物学方面的现象和理论,例如预测编码和表征漂移。
Apr, 2023
提出了Product Feedback Alignment(PFA)算法,它在避免显式的权重对称的同时,几乎与反向传播(BP)算法相同,能够在深度卷积网络中实现可比较的性能,从而提供了对长期存在的权重对称问题的新解决方案,实现了更加符合生物合理性的深度卷积网络学习。
May, 2024