抵御类增量学习中的不平衡遗忘
本文提出了一个因果框架,解释了类增量学习中的灾难性遗忘的原因,并提出了一种新的蒸馏方法,该方法与现有的抗遗忘技术(例如数据回放和特征 / 标签蒸馏)正交。在这个框架下,我们发现特征 / 标签蒸馏虽然存储效率高,但其因果效应与端到端特征学习的优点不相符,而数据回放则能够保留此效应,因此我们建议使用基于 Colliding Effect 的因果蒸馏方法,在不损失回放存储的情况下,实现类增量学习中的遗忘效应的缓解。实验结果表明该方法能够显著提高目前各类增量学习方法的性能。
Mar, 2021
通过数据不平衡的角度来分析深度神经网络在连续学习新概念时容易出现灾难性遗忘问题,提出了一种名为 Uniform Prototype Contrastive Learning (UPCL) 的方法,通过学习均匀且紧凑的特征来解决动态不平衡问题,并通过在多个基准数据集上的实验验证了其在性能上的优越性。
May, 2024
通过平衡当前阶段的样本和内存中保存的样本的贡献,提出了一种新的平衡破坏与重建模块(BDR),用于记忆回放的类增量学习(CIL),通过减少旧知识的最大破坏程度,可以实现更好的知识重建。实验证明,作为一种轻量级即插即用模块,BDR 能显著提高现有最先进方法的性能,并具有良好的泛化能力。
Aug, 2023
本文提出了一个新的优化目标和基于梯度调整方法的动态训练偏差方法,以解决回放方法在在线连续学习过程中的动态训练偏差问题,并在实验中取得了更好的结果,以解决跨任务类别辨别问题。
May, 2023
研究表明,使用简单的组件和一个平衡内部和外部任务学习的损失函数组合已经可以解决神经网络在新任务上学习所导致的经典遗忘现象。同时,报道了在类增量学习中,表示品质较差是另一个使经典遗忘现象出现的原因,并通过适当的正则化程序改进了性能。在这些发现的基础上,研究结果在 CIFAR-100 和 ImageNet 上均取得了国际领先的成果,方法简单易实现。
Feb, 2021
基于预训练模型的类增量学习中,平衡因果效应的方法(BaCE)通过构建来自新旧数据到新旧类别预测的因果路径,解决了新旧类别之间的因果失衡问题,并在多个任务和设置上优于其他类增量学习方法。
Feb, 2024
Class-Incremental Learning faces a dual imbalance problem, which results in skewed gradient updates, catastrophic forgetting, and imbalanced forgetting, but these issues can be addressed using reweighting techniques and a distribution-aware knowledge distillation loss, leading to consistent improvements in performance.
Feb, 2024
持续学习在避免旧任务遗忘的同时,旨在不断学习新知识。本研究侧重于类增量设置下的文本分类,在探索持续学习的表示学习过程中,发现信息瓶颈的压缩效应导致了对类似类别的混淆。为了使模型学习到更充足的表示,我们提出了一种新颖的基于重放的持续文本分类方法 InfoCL。该方法利用快慢对比学习和当前 - 过去对比学习来进行互信息最大化,更好地恢复之前学到的表示。另外,InfoCL 还采用了对抗性记忆增强策略来缓解重放的过拟合问题。实验结果表明,InfoCL 有效地减轻了遗忘问题,并在三个文本分类任务上达到了最先进的性能。代码公开可用于此 https URL。
Oct, 2023
类渐进学习是从数据流中构建分类模型的目标。本文通过统计分析框架量化各个因素对增量性能的相对贡献,发现初始训练策略是影响平均增量准确性的主要因素,而 CIL 算法的选择对防止遗忘更为重要。基于此分析,我们提出了选择相应初始训练策略的实际建议,以促进增量学习的实际应用部署。
Aug, 2023