利用突触可塑性,采用梯度下降算法优化反馈网络的连接权重和可塑性,使得大型反馈可塑网络可以学习、记忆、重构以及元学习各类任务。
Apr, 2018
本文提出了一种使用可塑性规则的基于循环神经网络的模型,能够自适应地根据不断变化的经验调整参数,并在关联学习和有限次学习等方面表现出色,其中全局梯度可塑性规则比局部 Hebbian 可塑性规则能更好地推断底层映射。
Feb, 2023
提出了一个新型的元强化学习模型,MetODS,利用动态连接权重和突触可塑性来进行连续的自我反思修改,实现了在代理策略空间中高效和强大的控制规则的学习。
Feb, 2022
脑的学习机制中最引人注目的能力之一是通过结构和功能可塑性对其突触进行适应。然而,大多数用于人工神经网络的可塑性模型专注于突触而非神经元,因此优化了突触特定的 Hebbian 参数。为了克服这个限制,我们提出了一种新的可塑性模型,称为神经元为中心的 Hebbian 学习 (NcHL),其中优化专注于神经元特定的 Hebbian 参数。和 ABCD 规则相比,NcHL 将参数数量从 5W 减少到 5N,其中 W 和 N 分别为权重和神经元的数量,通常 N 远小于 W。在两个机器人运动任务的实验证明,尽管使用的参数数量少得多(约为 97 倍),但 NcHL 与 ABCD 规则的性能相当,因此具有可扩展的可塑性。
Feb, 2024
本研究使用元学习发现网络如何利用反馈机制和本地、仿生学习规则,以进行在线信用分配,并超越了现有的基于梯度的算法在回归和分类任务方面的性能,特别是在持续学习方面表现优异,结果表明存在一类生物可行的学习机制,不仅匹配梯度下降,而且还克服了其局限性。
Jun, 2020
基于神经发育程序的一类自组织神经网络模型,具有可塑性,并能从经历中学习和适应不同的控制任务。结果表明,在需要快速适应或具有非稳态奖励的环境中,结构可塑性是有益的。
Jun, 2024
本文研究表明,神经可塑性的神经调节可被不同方式处理,并表明这种可塑性神经调节在神经网络训练上有广泛应用,可提高神经网络在强化学习和监督学习任务中的性能。
Feb, 2020
研究提出了一种新的神经元学习规则,它使用突触前输入来调制预测误差,将其嵌入表格和深度 Q 网络强化学习算法中,可以在简单而高动态的任务中胜过传统算法,这提出了一种新的生物智能核心原则。
May, 2022
本文研究了使用突触模型可以减轻人工神经网络中存在的 “灾难性遗忘” 现象,从而实现多时间尺度的持续学习并减少经验回放数据库在任务内的遗忘。
Feb, 2018
通过多层感知器和卷积神经网络,研究对比黑比学习和平衡传播算法及其加宽自适应能力的表现及其仿生学上的意义。
Apr, 2022