全测试时间适应的神经调制 Hebbian 学习
提出了一种适应神经网络在测试时分布发生变化的方法,通过闭环系统和测试时反馈信号来在实时中进行网络的适应,该方法使用基于学习的函数来实现很好的效果,使适应比基准方法更加灵活和快捷。
Sep, 2023
脑的学习机制中最引人注目的能力之一是通过结构和功能可塑性对其突触进行适应。然而,大多数用于人工神经网络的可塑性模型专注于突触而非神经元,因此优化了突触特定的 Hebbian 参数。为了克服这个限制,我们提出了一种新的可塑性模型,称为神经元为中心的 Hebbian 学习 (NcHL),其中优化专注于神经元特定的 Hebbian 参数。和 ABCD 规则相比,NcHL 将参数数量从 5W 减少到 5N,其中 W 和 N 分别为权重和神经元的数量,通常 N 远小于 W。在两个机器人运动任务的实验证明,尽管使用的参数数量少得多(约为 97 倍),但 NcHL 与 ABCD 规则的性能相当,因此具有可扩展的可塑性。
Feb, 2024
研究提出了一种新的神经元学习规则,它使用突触前输入来调制预测误差,将其嵌入表格和深度 Q 网络强化学习算法中,可以在简单而高动态的任务中胜过传统算法,这提出了一种新的生物智能核心原则。
May, 2022
本文研究表明,神经可塑性的神经调节可被不同方式处理,并表明这种可塑性神经调节在神经网络训练上有广泛应用,可提高神经网络在强化学习和监督学习任务中的性能。
Feb, 2020
本研究使用元学习发现网络如何利用反馈机制和本地、仿生学习规则,以进行在线信用分配,并超越了现有的基于梯度的算法在回归和分类任务方面的性能,特别是在持续学习方面表现优异,结果表明存在一类生物可行的学习机制,不仅匹配梯度下降,而且还克服了其局限性。
Jun, 2020
受生物神经元可塑性启发,我们提出了一种搜索方法,通过寻找突触特异的赫比学习规则,使网络能在智能体的生命周期内持续自组织其权重,从而实现在一些强化学习任务中取得成功,同时对多种感官模态处理方式具有适应性。
Jul, 2020
脑表示必须在一般性和适应性之间取得平衡,神经编码捕捉世界的一般统计规律,同时根据当前目标动态调整,其中一方面的适应性是基于任务相关性随机共调制神经元的增益,这些波动然后向下传播以指导决策。我们通过随机增益调制对卷积网络进行微调,显示优于确定性增益调制,在 CelebA 数据集上达到最先进的结果。为了更好地理解支持此改进的机制,我们使用 Cifar-100 研究了微调性能如何受到架构的影响。总体而言,我们的结果表明随机共调制可以增强多任务学习中的学习效率和性能,无需额外的可学习参数,为开发更具灵活性和鲁棒性的智能系统提供了一个有希望的新方向。
Nov, 2023
通过将梯度表示为活动差异的方法进行生物合理性学习算法的搜索,提出了名为 “双向传播” 的完全本地学习算法,弥补了与反向传播的性能差距,无需分离的学习阶段或无穷小的盯人,在稳定性方面仍然与对称盯人无关。
Feb, 2024