Co$^2$L:对比连续学习
本论文主要研究使用自监督预训练在图像分类任务上进行在线渐进学习的方法,发现相较于有监督的预训练,利用自监督预训练可以得到更好的特征表征,且采样数量较少时优势更为明显。在三种在线渐进学习算法中,自监督预训练在 ImageNet 数据集上取得了较有竞争力的实验效果,相对于之前的基于在线渐进学习的图像分类方法有了较大的提升。
Mar, 2021
本文提出了一种用于无监督预训练的方法SPeCiaL,旨在为连续学习定制表示。我们的方法通过序列学习过程差异化地制定了元学习目标,从而产生偏向于快速知识保留且遗忘最小化的表示。在连续小样本学习中,我们评估了SPeCiaL的性能,并展示它能够匹配或胜过其他有监督的预训练方法。
Jun, 2021
该研究提出了一种基于无监督学习方法的连续学习技术,可以在不需要人工标注的数据的情况下设法学习连续任务的特征表示,并通过使用LUMP技术来缓解灾难性遗忘问题。
Oct, 2021
在连续学习的场景中,无监督模型的效果会大幅降低。本文提出了一种将自监督损失函数转换为知识蒸馏机制的方法,并通过加入预测器网络实现 Continual self-supervised visual representation Learning,在不需要大量超参数调整的情况下显著提高了视觉表示的学习质量。
Dec, 2021
通过对最优线性分类器表现的差异考虑“表示忘却”的概念,本研究重新审视了一些标准的连续学习基准,并观察到在没有任何明确控制忘却的情况下,模型表示通常会经历较小的表示忘却,并且有时可以与明确控制忘却的方法相当,尤其是在更长的任务序列中。我们还展示了表示忘却如何推动我们对于连续学习中模型容纳能力和损失函数影响的认识。基于这些结果,我们提出一个简单但是竞争力强的方法是,在构建旧样本的原型时,通过标准的有监督对比学习来不断地学习表示。
Mar, 2022
本文提出了一种名为对比监督蒸馏(CSD)的训练过程,用于解决连续表征学习中的灾难性遗忘问题,如何通过利用蒸馏设置中的标签信息来降低特征遗忘并学习有区别力的特征,从而使学生模型从教师模型中进行对比学习,在视觉检索任务中缓解灾难性遗忘,且表现优于当前的最新方法。
May, 2022
引入了一种新型通用损失函数Symmetric Contrastive (Sy-CON) loss用于有效地连续自监督学习(CSSL).
Jun, 2023
通过观察对神经网络输出的对比损失的冗余引发能力,我们的方法利用新任务的前几个样本来识别和保留对神经网络传递能力最有贡献的参数,从而使网络的其余部分能够学习新特征,并在诸如CIFAR10和TinyImagenet等基准计算机视觉数据集上证明了在任务增量、类别增量和领域增量持续学习场景中的最先进性能。
Nov, 2023
基于对比学习的连续学习方法,该研究提出了基于重放缓冲区选择(RBS)的对比连续学习方法以确保知识的保留,并使用原型-实例关系蒸馏(PRD)损失来维护样本表示与原型之间的关系,实验证明该方法在在线环境中有效消除灾难性遗忘问题。
Mar, 2024
通过对前一任务的训练损失进行理论分析建立了性能保证的理论解释并提出了一种新的自适应蒸馏系数的对比式连续学习算法CILA,该算法在标准基准测试中取得了显著的改进和最新的最佳性能。
May, 2024