May, 2023

使用前向前向算法训练的网络中的紧急表示

TL;DR本研究中,作者探讨了一种名为 Forward-Forward 的训练神经网络的方法,与传统的 Backpropagation 背向算法相比,它采用了本地学习规则。作者通过实验发现,使用 Forward-Forward 算法进行训练所得到的神经网络内部表示可以组织成强健的、类别特定的合奏,并且由极少量的活跃单元(高稀疏度)组成,这与感官处理期间皮层表示的观察结果非常相似。这表明在模拟皮层学习方面,Forward-Forward 算法提出的学习过程比 Backpropagation 更优秀。