内存高效的半监督持续学习:世界就是自己的重放缓冲区
这篇研究论文介绍了一种用于持续学习的新框架,它将关联记忆与回放策略相结合,通过稀疏内存编码归档显著的数据片段,并引入面向内容的记忆检索机制,通过实验证明了该方法在各种持续学习任务中的有效性。
Oct, 2023
研究使用生成对抗网络和网络抓取数据重现不可用的旧类数据,避免遗忘和背景类的数据分布变化,达到在连续学习中存在不同步骤和背景类分布变化的情况下更好的表现。
Aug, 2021
提出 Deep Online Replay with Discriminator Consistency (ORDisCo) 方法,使用条件生成式对抗网络和在线重放策略实现无标记的半监督连续学习 (SSCL),稳定关键鉴别器参数以避免遗忘和显著提高性能。
Jan, 2021
RECALL 是一种重播增强方法,通过自适应规范化和旧任务的策略蒸馏,在新任务上增强普适性和稳定性,从而显著改善持续强化学习中灾难性遗忘的问题。在 Continual World 基准测试中,RECALL 的性能明显优于纯粹的完美记忆重播,与最先进的持续学习方法相比,整体性能相当甚至更好。
Nov, 2023
本研究提出了一种基于强化经验回放的连续学习方法,通过使用当前训练数据模仿未来经验,以及蒸馏内存缓冲区的过去经验,来提高模型的预测一致性,从而有效保留已获得的知识。实验结果表明,我们的方法在多个图像分类数据集上优于现有方法。
May, 2023
本文提出了一个新的问题 ——Memory-Constrained Online Continual Learning (MC-OCL),我们通过 Batch-level Distillation(BLD)这种基于正则化的 CL 方法来解决这个问题,并在三个公开的基准测试中证明了我们的方法成功地解决了 MC-OCL 问题,同时实现了与需要更高存储开销的先前 distillation 方法相当的准确性。
Aug, 2020
本文研究了自我监督学习在连续流数据中的应用及其效率,提出了重放缓存与最小冗余样本的方法来增强学习。实验结果表明,这些方法可以有效提高表示学习的精度和鲁棒性,在非平稳的语义分布下也不容易出现灾难性遗忘。
Mar, 2022
本文提出了一种名为 IRCL 的伪排练式学习方法,其中通过将类不变表示与条件生成模型分离并与类特定表示共同使用,以学习顺序任务。该方法证明了在两个著名的连续学习基准上都比基于正则化和基于伪排练的方法更好,并成功地解决了灾难性遗忘问题。
Jan, 2021
通过引入一种扩充缓冲区的方法来缓解记忆约束,将其与基于模型的强化学习算法结合使用,从而在持续学习中提高效果。我们在 Procgen 和 Atari RL 基准测试中评估了这种方法的有效性,并证明了在潜在世界模型的背景下,用于回放缓冲区的分布匹配扩充可以成功防止灾难性遗忘,并大大减少了计算开销。然而,我们也发现此类解决方案并非完全没有缺陷,还存在缺乏可塑性和无法学习新任务等失败模式,可能是持续学习系统的潜在限制。
Jan, 2024