突触动力学实现一阶自适应学习和权重对称性
研究深度人工神经网络中的反向传播学习算法与大脑神经元突触可塑性规律的类比,介绍了不依赖于对称前向和后向突触权重的算法,提出通过加强权重符号一致性的反馈对准法的修改,可以实现与反向传播法相当的性能。这些研究结果表明,促进前向和反馈权重对准的机制对于深度网络的学习是至关重要的。
Dec, 2018
该论文研究“反馈对齐”算法的数学特性,通过分析二层网络在平方误差损失下的收敛和对齐,证明在过度参数化的情况下,误差会以指数速度收敛,以及参数对齐需要正则化。该成果对我们理解生物学可行的算法如何不同于Hebbian学习方法,具有与非本地反向传播算法相当的性能提供了方法。
Jun, 2021
本文提供了能量基模型(EBMs)在逼近反向传播(BP)方面的综合理论,统一了预测编码、平衡传播和对比 Hebbian 学习等算法,从 EBMs 的自由相平衡这一简单而普遍的数学特性出发,在不同的能量函数下进行选择以得出一类逼近 BP 的算法。
May, 2022
提出了一种新的神经网络层间激活的相关信息最大化的正式框架,从而解决了传统反向传播算法的生物学上的可信度问题,并提供了一种自然的权重对称问题的解决方案。
Jun, 2023
脑的学习机制中最引人注目的能力之一是通过结构和功能可塑性对其突触进行适应。然而,大多数用于人工神经网络的可塑性模型专注于突触而非神经元,因此优化了突触特定的 Hebbian 参数。为了克服这个限制,我们提出了一种新的可塑性模型,称为神经元为中心的 Hebbian 学习 (NcHL),其中优化专注于神经元特定的 Hebbian 参数。和 ABCD 规则相比,NcHL 将参数数量从 5W 减少到 5N,其中 W 和 N 分别为权重和神经元的数量,通常 N 远小于 W。在两个机器人运动任务的实验证明,尽管使用的参数数量少得多(约为 97 倍),但 NcHL 与 ABCD 规则的性能相当,因此具有可扩展的可塑性。
Feb, 2024
人工神经网络用于强化学习是结构僵化的,参数只能固定在预定义的网络结构中,这限制了在不同环境中优化参数的能力。在本研究中,我们通过演化一组神经元和可塑突触来解决这个问题,展示了通过优化不同的随机结构配置下的神经元的参数,可以解决多个强化学习控制任务。
Apr, 2024
通过介绍一种新的神经可塑性规则,该研究提供了一种在大脑中实现反向传播的潜在机制,并在数学模拟和人工神经网络实验中证明该规则在网络中诱导出不同的社区结构,从而呈现出一种生物学上可行的 BP 实现方式。
May, 2024