- 演化自组成神经网络:从自发活动到经验依赖学习
基于神经发育程序的一类自组织神经网络模型,具有可塑性,并能从经历中学习和适应不同的控制任务。结果表明,在需要快速适应或具有非稳态奖励的环境中,结构可塑性是有益的。
- 捷足先登:一种无参数的终身强化学习优化器
PACE 是一种无需超参数调整和先验知识的参数自由优化器,基于在线凸优化理论解决了终身强化学习中可塑性损失、适应新任务以及分布变化等挑战。实验证明,尽管底层优化问题是非凸和非平稳的,PACE 在 Procgen,Atari 和 Gym Co - 无监督连续学习中融合现在和过去
我们提出了一种适用于无监督连续学习(UCL)的统一框架,该框架将实时数据和过去数据的特定学习目标区分开来,包括稳定性、可塑性和跨任务整合。我们的方法 Osiris 在分离的嵌入空间中明确优化这三个目标,并在所有基准测试中取得了最先进的性能, - IJCAI任务不平衡持续学习的动态锚定提示
本研究探讨了任务不平衡连续学习(TICL)场景下,基于提示的动态锚定方法(DAP)在稳定性和可塑性之间寻求平衡,为 TICL 中的数据流改变提供了 4.5% 到 15% 的绝对改进。
- CVPR使用预训练视觉转换器校准高阶统计量进行少样本类别增量学习
通过使用预训练模型和高阶特征统计,可以改善少样本增量学习中的分类准确度。
- ICLR应对连续学习中的可塑性丧失和灾难性遗忘
深度表示学习方法在持续学习中面临着有用单元的灾难性遗忘和可塑性损失的困扰。本文介绍了基于效用的扰动梯度下降(UPGD)作为一种新的表示持续学习方法,通过梯度更新和扰动相结合的方式,在保护有用单元免受遗忘的同时,对不太有用的单元施加更大的修改 - CVPRInfLoRA: 自动学习的无干扰低秩适应
通过注入少量参数重参数化预训练权重,InfLoRA 方法设计了一个子空间来消除新任务对旧任务的干扰,实现了稳定性和可塑性之间的良好权衡,从而在多个数据集上胜过现有最先进的持续学习方法。
- 分支调整:平衡稳定性和可塑性的连续自监督学习
我们提出了一种平衡稳定性和可塑性的方法,称为 Branch-tuning,可以应用于不同的自监督学习方法,而无需修改原始方法、保留旧数据或模型。通过在各种基准数据集上进行渐进实验,验证了该方法在真实场景中的有效性和实用价值。
- BSDP:脑启发的用于在线开放世界目标检测的流式双级扰动
提出了一种名为 Brain-inspired Streaming Dual-level Perturbations (BSDP) 的简单即插即用方法,以在线开放世界目标检测的方式进行深度学习模型的训练,通过引入新知识而不忘记旧知识,采用两个 - 加权合奏模型是强大的持续学习者
在这项研究中,我们研究了增量学习(CL)的问题,其目标是在一系列任务中学习模型,使得先前任务的数据在学习当前任务数据时不可用。我们提出了一种称为 Continual Model Averaging(或 CoMA)的加权集成模型,它在保持稳定 - 学习低秩特征表示:在连续学习中更好地平衡稳定性和可塑性
提出了一种名为 LRFR 的新型训练算法,通过在过去任务的特征表示矩阵的零空间中优化网络参数来保证稳定性,同时在训练各个任务时仅选择网络各层中的部分神经元来学习过去任务的特征表示矩阵以增加零空间维度,从而增强了网络参数设计时的可塑性,该方法 - 通过网络分割和合并与梦幻元加权模型融合的持续学习
我们提出了一种名为 Split2MetaFusion 的连续学习方法,通过采用两阶段策略(分割和元权重融合),同时实现了网络稳定性和可塑性的更好权衡。在实验结果和分析中,证明了该方法在保持网络稳定性和可塑性方面的优越性。
- 重访视觉强化学习中的可塑性:数据、模块和训练阶段
基于神经网络的高性能、高效样本视觉增强强化学习的主要研究领域之一是塑性。本研究通过系统性实证研究揭示了数据增强、评论者的塑性损失、塑性恢复等关键组成部分对塑性的影响,并提出了一种基于评论者塑性水平动态调整回放率来解决高回放率困境的策略,该策 - ICCVCoinSeg:对增量分割进行类间与类内对比表示
基于类别递增的语义分割,提出了 CoinSeg 方法,通过对比相似和类别内的表示,追求灵活参数调整和具有判别性的表示,从而平衡模型的稳定性和可塑性。
- 通过再生规范化维持可塑性
通过将 L2 正则化引入损失函数实现的 L2 Init 方法,在持续学习中保持可塑性,处理非稳态数据流时有效,减少参数大小并维持高的特征级别。
- 增强强化学习的泛化性和可塑性以提高样本效率
通过对 off-policy RL 算法强化学习算法进行实证分析,我们发现,Sharpness-Aware Minimization 和 reset 机制的联合使用可以提高网络的适应性和计算效率,具有较高的泛化性和可塑性。
- Sy-CON: 对称对比损失用于连续自监督表示学习
引入了一种新型通用损失函数 Symmetric Contrastive (Sy-CON) loss 用于有效地连续自监督学习 (CSSL).
- CVPR关于类别增量学习中的稳定性和可塑性两难问题
本文研究了班级迭代学习中的稳定性和可塑性之间的平衡,通过分析工具测量了特征表示的稳定性和可塑性,并发现大多数班级迭代学习算法更偏向稳定性而非可塑性,这不仅启发了新的算法,也提醒了班级迭代学习算法需要不断改进特征表示学习。
- ICLR网络连续学习中稳定性与可塑性困境的新见解
本研究提出了一种名为 MuFAN 的在线连续学习框架,利用不同级别的预训练网络中提取的更丰富的上下文编码,并引入了一种新颖的基于结构的蒸馏损失和稳定性 - 可塑性标准化模块,用于同时保持高可塑性和稳定性。MuFAN 在多个数据集上优于其他现 - 探究连续学习中的样本影响力
该研究提出 MetaSP 算法,用于控制模型更新并优化训练数据集的存储,该算法基于 Influence Function 通过计算加权示例对模型鲁棒性的影响,从而提高连续学习的稳定性和可塑性,实验结果展示其显著优于现有方法。