通过协作学习改进在线持续学习的可塑性
本文提出了一个新的问题 ——Memory-Constrained Online Continual Learning (MC-OCL),我们通过 Batch-level Distillation(BLD)这种基于正则化的 CL 方法来解决这个问题,并在三个公开的基准测试中证明了我们的方法成功地解决了 MC-OCL 问题,同时实现了与需要更高存储开销的先前 distillation 方法相当的准确性。
Aug, 2020
本文总结并讨论了最近采用突触正则化、结构可塑性和经验重放等技术解决连续流式数据学习时的灾难性遗忘问题的深度学习方法,并通过实证表明,与不采用经验重放的架构相比,在在线增量学习任务中,带有经验重放的架构通常更具有优势。
Mar, 2020
在线连续学习中,通过在单通数据流中不断学习新数据并减轻灾难性遗忘的问题,本文分析了在新的学习任务中为何在线学习模型无法很好地泛化的快捷学习,然后提出了在线原型学习框架(OnPro),通过在线原型平衡和自适应原型反馈机制,达到良好分离所有已见类别、学习新类别的平衡状态,并在广泛使用的基准数据集上通过实验证明了 OnPro 相对于最先进的基准方法的卓越性能。
Aug, 2023
本文提出了一种用于在线连续学习问题的简单算法,该算法采用 kNN 分类器和通用预先训练的特征提取器,可以在小的计算预算下紧凑存储和利用整个数据流,既能减少过往数据的灾难性遗忘,同时也能快速适应快速变化的数据流,同时在 Continual LOCalization (CLOC) 和 Continual Google Landmarks V2 (CGLM) 两个大规模 OCL 数据集上取得了最新的技术水平。
May, 2023
在连续流数据的情景中,深度神经网络在解决多个分类任务时,面临着保持旧任务知识同时学习新任务的挑战。本研究分析了当前度量方法的局限性,发现了新任务引起的遗忘问题,并提出了一套考虑任务难度增加的新度量方法,实验证明这些度量方法能够提供有关模型在连续学习环境中平衡稳定性和可塑性的新见解。
Sep, 2023
持续学习在避免旧任务遗忘的同时,旨在不断学习新知识。本研究侧重于类增量设置下的文本分类,在探索持续学习的表示学习过程中,发现信息瓶颈的压缩效应导致了对类似类别的混淆。为了使模型学习到更充足的表示,我们提出了一种新颖的基于重放的持续文本分类方法 InfoCL。该方法利用快慢对比学习和当前 - 过去对比学习来进行互信息最大化,更好地恢复之前学到的表示。另外,InfoCL 还采用了对抗性记忆增强策略来缓解重放的过拟合问题。实验结果表明,InfoCL 有效地减轻了遗忘问题,并在三个文本分类任务上达到了最先进的性能。代码公开可用于此 https URL。
Oct, 2023
我们提出了一个新的连续学习(CL)范式 Realistic Continual Learning(RealCL),其中任务之间的类分布是随机的,不同于结构化设置。同时,我们引入了一个名为 CLARE 的预训练模型解决方案,旨在在保留过去学习的同时整合新知识。通过广泛的实验证明了 CLARE 在各种 RealCL 场景中的有效性和优越性。
Apr, 2024
本文提出了一个新的优化目标和基于梯度调整方法的动态训练偏差方法,以解决回放方法在在线连续学习过程中的动态训练偏差问题,并在实验中取得了更好的结果,以解决跨任务类别辨别问题。
May, 2023
本研究提出了一种名为 MuFAN 的在线连续学习框架,利用不同级别的预训练网络中提取的更丰富的上下文编码,并引入了一种新颖的基于结构的蒸馏损失和稳定性 - 可塑性标准化模块,用于同时保持高可塑性和稳定性。MuFAN 在多个数据集上优于其他现有的连续学习方法。
Feb, 2023
本文是对基于预训练模型的持续学习最新进展的综合调查,将现有方法分为三组进行分类,提供了它们的相似性、差异性、以及各自的优缺点的比较分析,并通过实证研究对比了各种最先进的方法,以凸显比较中公平性方面的关注点。
Jan, 2024