该论文提出了一种用于设定特定任务的连续学习方法,通过增加生成预定数据和发展新的自我监督技术,得到了比传统生成回放更好的结果,并以多个数据集进行实验来说明该方法的有效性。
May, 2020
本文研究神经网络在类比推理方面的持续学习问题,通过采用经验重演缓解类比推理的数据流不稳定性所导致的灾难性遗忘问题,并发现选择性重演能够显著提升性能。
Mar, 2021
提出使用最近中心点法(NCM)替代在在线学习中普遍使用的Softmax分类器以解决软最大值分类器导致的最近偏差问题,同时引入有监督对比重播(SCR)以更有效地利用NCM分类器,最终实验表明该方法大幅度减少了严重遗忘情况,并在各种数据集上优于现有的学习方法。
本文发现在连续学习的情境中,通过对比学习方法学习到的表示对抗遗忘更加鲁棒,基于该观察,我们提出了一种基于重复学习的算法,该算法着重于持续学习和维护可转移的表示,并在常见的基准图像分类数据集上进行了广泛实验验证,该方法取得了最新的最佳性能。
Jun, 2021
本研究介绍了Gradient Coreset Replay作为一种新的replay-based CL策略,该策略可有效应对continual learning中的catastrophic forgetting,同时还展示了在离线/在线CL场景下与现有方法相比取得的显著收益并讨论了基于监督对比损失的可持续学习的收益。
Nov, 2021
这篇论文提出了一种称为Adiabatic Replay的新颖学习策略,它可以在避免灾难性遗忘的同时,仅回放与新数据相似的旧数据样本,并且可以利用GMM模型高效地更新旧数据模型,实验结果证明了这种方法在连续学习方面的有效性。
Mar, 2023
在严格的条件下,通过使用生成回放、模型大小控制、时态正则化等方法,本研究提出了一种脑启发式的持续学习方法,以解决累积学习中遗忘问题,并在重要基准测试中取得了较好的实验结果。
Oct, 2023
在在线连续学习中,通过经验重放防止灾难性遗忘和过拟合的神经网络优化过程可能出现不稳定的轨迹,我们提出了一种解决方案——分层近似重放(LPR),通过优化几何图形,平衡新数据和重放数据的学习,但仅允许对过去数据的隐藏激活进行逐渐变化,我们证明LPR在多个问题设置下稳定提升了基于重放的在线连续学习方法的性能,不受可用重放内存的影响。
Feb, 2024
基于对比学习的连续学习方法,该研究提出了基于重放缓冲区选择(RBS)的对比连续学习方法以确保知识的保留,并使用原型-实例关系蒸馏(PRD)损失来维护样本表示与原型之间的关系,实验证明该方法在在线环境中有效消除灾难性遗忘问题。
Mar, 2024
基于丰富的记忆资源和训练效率的重视,我们引入了一种适应性记忆回放的框架来解决不断学习问题,通过多臂赌博机问题的方法来动态选择训练数据,从而在保持高性能的同时减少了遗忘达10%。
Apr, 2024