ER-FSL: 在线连续学习的特征子空间学习经验回放
本文总结并讨论了最近采用突触正则化、结构可塑性和经验重放等技术解决连续流式数据学习时的灾难性遗忘问题的深度学习方法,并通过实证表明,与不采用经验重放的架构相比,在在线增量学习任务中,带有经验重放的架构通常更具有优势。
Mar, 2020
本文为实现在在线数据流中不断学习新类别而进行的在线类增量设置而贡献了一种新的 Adversarial Shapley 值评分方法,该方法可以为记忆数据样本评分,以便维护先前观察类别的潜在决策边界(以保持学习稳定性和避免遗忘),同时干扰当前正在学习的新类别的潜在决策边界(以鼓励可塑性和最优学习新的类别边界)从而在各种数据集上展现出比现有回放基础的连续学习方法具有竞争性或改进的性能。
Aug, 2020
研究了当神经网络被培训在一个时间上变化的数据流时,其面临的“灾难性遗忘”问题。本文提出并实验了一种简单的rehearsal-based方法,即Experience Replay,并证明其相对于现有的基于rehearsal的方法有了极大的精度提升。
Oct, 2020
提出使用最近中心点法(NCM)替代在在线学习中普遍使用的Softmax分类器以解决软最大值分类器导致的最近偏差问题,同时引入有监督对比重播(SCR)以更有效地利用NCM分类器,最终实验表明该方法大幅度减少了严重遗忘情况,并在各种数据集上优于现有的学习方法。
Mar, 2021
研究在线持续学习范式下,使用经验回放(ER)对抗内存与计算约束时,新添加的类别在ER下表示的变化,通过实证分析验证减轻高度干扰参数更新的新方法。该方法采用不对称更新规则,有利于在任务边界时避免遗忘。在标准持续学习基准测试中,与强基线方法相比取得了显著提高。
Apr, 2021
本研究提出了一种基于经验回放的在线连续学习方法,该方法使用不对称更新规则,使得新类别能够更好地适应先前观察到的类别,并在标准连续学习基准测试中获得显著的性能提升。
Mar, 2022
提出了Backward Feature Projection (BFP)方法用于解决持续学习中的灾难性遗忘问题,并通过学习线性变换来让新特征更具可塑性,从而保持了旧课程的线性可分性并允许新类的出现,实验证明BFP方法极大提高了模型性能和表达空间的线性可分性。
Mar, 2023
本研究提出了一种基于强化经验回放的连续学习方法,通过使用当前训练数据模仿未来经验,以及蒸馏内存缓冲区的过去经验,来提高模型的预测一致性,从而有效保留已获得的知识。实验结果表明,我们的方法在多个图像分类数据集上优于现有方法。
May, 2023
在在线连续学习中,通过经验重放防止灾难性遗忘和过拟合的神经网络优化过程可能出现不稳定的轨迹,我们提出了一种解决方案——分层近似重放(LPR),通过优化几何图形,平衡新数据和重放数据的学习,但仅允许对过去数据的隐藏激活进行逐渐变化,我们证明LPR在多个问题设置下稳定提升了基于重放的在线连续学习方法的性能,不受可用重放内存的影响。
Feb, 2024
在这篇论文中,我们介绍了一种名为TEAL的新方法,通过将样本存储于内存中,可以显著增强各种经验重播方法在小内存缓冲区上的性能,从而提高了最先进方法XDER以及ER和ER-ACE在多个图像识别基准上的平均准确性,与最终任务中每个类别1-3个样本的小内存缓冲区相关。这证实了当内存有限时,优先考虑最典型的数据是最好的策略。
Jun, 2024