本文研究了基于重复练习的持续学习方法对于解决深度神经网络在面对非稳态数据时产生的遗忘问题的有效性,并引入 brain sparse coding 中的动态模块化与稀疏性 (Dynamos) 来解决任务干扰问题。研究结果表明 Dynamos 在多组数据集上的表现均好,并且所学习的特征表现出模块化和专业化的特点,同时具有重用性。
Jan, 2023
介绍了一种基于神经突触可塑性的动态生成记忆模型,该模型在连续学习中实时调整神经网络架构,应用于视觉分类任务中,旨在解决老知识保留和模型容量扩展的问题。
Apr, 2019
本文探讨人类的高效持续学习如何通过多个记忆系统的神经生理机制和相互作用来实现,同时介绍了一种基于稀疏编码和多重记忆回放机制的神经网络模型,该模型可以减少遗忘。
Dec, 2022
通过分布式记忆学习机制,利用神经网络以及强化记忆的方式,提出了一种新的无梯度的快速领域适应机制,称为分布式记忆学习(DML),在跨域场景中以显著的性能提升和时间优化为特点。
Feb, 2024
我们提出了一种动态结构发展的脉冲神经网络 (DSD-SNN) 模型,通过动态地分配和增长神经元,并删除多余神经元,提高内存容量,减少计算开销,实现高效自适应的连续学习。我们的模型在多类增量学习和任务增量学习方面验证了其有效性,显著提升性能、学习速度和内存容量,同时在与现有方法的比较中,与基于深度神经网络 (DNNs) 的方法具有可比较的性能,并且明显优于基于脉冲神经网络 (SNNs) 的现有方法的性能。
Aug, 2023
本文提出了两种生物启发机制,基于稀疏性和异构 dropout,显著提高了连续学习者在长时间序列任务中的表现,并在多项基准连续学习问题上展示了重大的性能提升。
Mar, 2022
本研究介绍了智能突触,模拟了生物神经网络的复杂分子机制来解决深度学习中的连续学习问题,实现了高效的分类任务连续学习过程。
Mar, 2017
基于大脑启发的自适应神经路径重组的持续学习算法,在增量任务中通过自组织调控网络资源以有效应对多样化的认知任务,表现出卓越的性能、能量消耗和内存容量。具备学习更复杂任务、整合过去学习知识以及自我修复能力的特点。
Sep, 2023
使用生物学原理进入机器学习模型,我们开发了一种轻量级神经网络结构,通过突触可塑性机制和神经调制,通过本地错误信号进行在线继续学习,从而改善了传统方法的稳定性和记忆限制,在 Split-MNIST,Split-CIFAR-10 和 Split-CIFAR-100 数据集上表现出更好的在线继续学习性能,并在基于回放的方法上达到最先进的记忆密集型方法的性能水平,进一步通过将关键设计概念整合到其他反向传播的继续学习算法中,显著提高了它们的准确性。
该研究发现,在某些数据条件下,Transformer Attention 机制与 Kanerva 的 Sparse Distributed Memory 有密切关联,可以提供 Attention 的新的计算和生物学解释,进一步确认预训练的 GPT2 Transformer 模型已满足这些条件。
Nov, 2021