本文研究了基于重复练习的持续学习方法对于解决深度神经网络在面对非稳态数据时产生的遗忘问题的有效性,并引入 brain sparse coding 中的动态模块化与稀疏性 (Dynamos) 来解决任务干扰问题。研究结果表明 Dynamos 在多组数据集上的表现均好,并且所学习的特征表现出模块化和专业化的特点,同时具有重用性。
Jan, 2023
本文介绍了具有三个级别稀疏性的编码循环神经网络,该网络基于二进制神经元和二进制连接,能够学习和召回大量的信息,可以作为分类器和关联记忆使用。
Feb, 2011
本文提出了两种生物启发机制,基于稀疏性和异构 dropout,显著提高了连续学习者在长时间序列任务中的表现,并在多项基准连续学习问题上展示了重大的性能提升。
Mar, 2022
使用稀疏分布式记忆连接核心神经回路与 Transformer 模型,创造了一种修改的多层感知器,该算法可有效解决人工神经网络所面临的连续学习问题,并广泛适用于训练稀疏网络。
Mar, 2023
本文介绍了一种简单的算法来进行双稀疏编码,并证明了其在样本复杂度和运行时间上具有优势,同时支持了多项数据模拟实验来验证该算法的实用性。
Nov, 2017
本文提出了一种双存储自组织架构用于实现终身学习,其中包含具有学习物体实例和类别的互补任务的两个增长式重复神经网络;通过在连续感官经历中扩展它们,这两个增长网络都能够提取出对未知数据更强的特征。
May, 2018
基于大脑启发的自适应神经路径重组的持续学习算法,在增量任务中通过自组织调控网络资源以有效应对多样化的认知任务,表现出卓越的性能、能量消耗和内存容量。具备学习更复杂任务、整合过去学习知识以及自我修复能力的特点。
Sep, 2023
本文提出了一套通用的框架用于理解交替最小化原理并分析已有的稀疏编码算法,同时设计了具备可证明保障的新算法并在简单的神经结构上实现;给出了首个高效的稀疏编码算法,可以接近或超过用于不相关字典稀疏恢复的信息理论极限,同时改善了现有方法的样本复杂度。
Mar, 2015
本文提出了一种新的持续学习方案,该方案通过神经网络的原型匹配、特征稀疏化和对比学习等三个新组件来纠正模型在学习新任务时遗忘旧任务的问题,在语义分割上进行了测试并在 Pascal VOC2012 和 ADE20K 数据集上取得了显著的准确性,远超过现有技术。
Mar, 2021
本文提出了一个新的生命周期学习的方法,命名为记忆感知突触 (Memory Aware Synapses),它计算神经网络参数的重要性,并根据重要性进行惩罚以防止重要知识被覆盖,这与大脑学习过程的 Hebb 规则有相关性。在物体识别任务和嵌入学习任务中,该方法表现出最先进的性能。