仿生学的神经元适应提高神经网络的学习能力
本研究使用元学习发现网络如何利用反馈机制和本地、仿生学习规则,以进行在线信用分配,并超越了现有的基于梯度的算法在回归和分类任务方面的性能,特别是在持续学习方面表现优异,结果表明存在一类生物可行的学习机制,不仅匹配梯度下降,而且还克服了其局限性。
Jun, 2020
研究提出了一种新的神经元学习规则,它使用突触前输入来调制预测误差,将其嵌入表格和深度 Q 网络强化学习算法中,可以在简单而高动态的任务中胜过传统算法,这提出了一种新的生物智能核心原则。
May, 2022
受生物神经元可塑性启发,我们提出了一种搜索方法,通过寻找突触特异的赫比学习规则,使网络能在智能体的生命周期内持续自组织其权重,从而实现在一些强化学习任务中取得成功,同时对多种感官模态处理方式具有适应性。
Jul, 2020
通过将梯度表示为活动差异的方法进行生物合理性学习算法的搜索,提出了名为 “双向传播” 的完全本地学习算法,弥补了与反向传播的性能差距,无需分离的学习阶段或无穷小的盯人,在稳定性方面仍然与对称盯人无关。
Feb, 2024
脑的学习机制中最引人注目的能力之一是通过结构和功能可塑性对其突触进行适应。然而,大多数用于人工神经网络的可塑性模型专注于突触而非神经元,因此优化了突触特定的 Hebbian 参数。为了克服这个限制,我们提出了一种新的可塑性模型,称为神经元为中心的 Hebbian 学习 (NcHL),其中优化专注于神经元特定的 Hebbian 参数。和 ABCD 规则相比,NcHL 将参数数量从 5W 减少到 5N,其中 W 和 N 分别为权重和神经元的数量,通常 N 远小于 W。在两个机器人运动任务的实验证明,尽管使用的参数数量少得多(约为 97 倍),但 NcHL 与 ABCD 规则的性能相当,因此具有可扩展的可塑性。
Feb, 2024
提出一种基于信息瓶颈原理的学习规则,结合了核方法,并采用 3 要素的 Hebbian 结构,其不需要精确标签,且在图像分类任务上表现与反向传播算法接近。
Jun, 2020
通过介绍一种新的神经可塑性规则,该研究提供了一种在大脑中实现反向传播的潜在机制,并在数学模拟和人工神经网络实验中证明该规则在网络中诱导出不同的社区结构,从而呈现出一种生物学上可行的 BP 实现方式。
May, 2024
本文尝试回答生物神经系统是否可以采用梯度的一阶自适应优化方法,通过在突触内使用生物合理的机制呈现了 Adam 优化器的实现,提出了一个新的方法应用于生物合理的 Adam 学习规则,这些机制可能有助于阐明生物突触动力学如何促进学习。
Dec, 2022
本文研究了深度神经网络领域中跨域性能退化问题,提出了一种基于完全测试时间自适应方法来提高网络适应性能的方法,其中采用了软式 Hebbian 学习过程和反馈神经调节层来辅助在线适应。实验结果表明,该方法可以显著改善网络模型的适应性能并超越现有的最新方法。
Mar, 2023