自我监督训练增强在线连续学习
在连续学习的场景中,无监督模型的效果会大幅降低。本文提出了一种将自监督损失函数转换为知识蒸馏机制的方法,并通过加入预测器网络实现 Continual self-supervised visual representation Learning,在不需要大量超参数调整的情况下显著提高了视觉表示的学习质量。
Dec, 2021
本研究提出一种用伪标签取代标准标签,在无监督模式下实现连续学习的方法,并提出了一种新的基准实验协议,以更好地评估模型在图像分类任务上的性能。结果表明,使用伪标签和现有的监督方法相结合可以在无监督场景下取得良好的成果。
Apr, 2021
在线持续学习在不断变化的数据流中直接学习,并存储来自该流中的最少量数据,本文通过对国内外文献中解决在线持续学习问题的方法进行实证评估,重点关注图像分类中的增量类别设置,通过比较在 Split-CIFAR100 和 Split-TinyImagenet 数据集上的平均准确率、遗忘性、稳定性和表示质量的指标,发现大多数方法都存在稳定性和欠拟合问题,但所学习的表示与相同计算预算下的独立同分布训练相当。同时发现基本的经验回放方法,经过适当调整和实施,是一种非常强大的基准方法。我们在 avalanche 框架上发布了我们的模块化和可扩展的代码库来复现我们的结果,并鼓励未来的研究。
Aug, 2023
本文提出了一种用于无监督预训练的方法 SPeCiaL,旨在为连续学习定制表示。我们的方法通过序列学习过程差异化地制定了元学习目标,从而产生偏向于快速知识保留且遗忘最小化的表示。在连续小样本学习中,我们评估了 SPeCiaL 的性能,并展示它能够匹配或胜过其他有监督的预训练方法。
Jun, 2021
本文提出在不具备先前知识的情况下进行在线自我监督终身学习的问题设置,并提出了一种名为 Self-Supervised ContrAstive Lifelong LEarning without Prior Knowledge(SCALE)的解决方案,在非 iid 和单遍数据上具有出色的表现,实验结果显示其准确性优于最佳算法。
Aug, 2022
通过分析类增量学习中灾难性遗忘的原因,我们提出了一个两阶段学习框架,其中包括一个固定编码器和一个逐步更新原型分类器。我们的方法不依赖于保留的旧类别样本,是一种非范例基于的 CIL 方法。在公共数据集上的实验证明,我们的方法在保留每类 5 个示例和 10 个阶段递增设置下,比最先进的范例基于方法在 CIFAR-100 上提高了 18.24%,在 ImageNet100 上提高了 9.37%。
Aug, 2023
本论文综述了自监督预训练技术及其在序列迁移学习框架中的应用,包括自监督学习和迁移学习的分类体系、设计跨不同领域的预训练任务的突出方法以及近期趋势和未来研究方向。
Jul, 2020
本文发现在连续学习的情境中,通过对比学习方法学习到的表示对抗遗忘更加鲁棒,基于该观察,我们提出了一种基于重复学习的算法,该算法着重于持续学习和维护可转移的表示,并在常见的基准图像分类数据集上进行了广泛实验验证,该方法取得了最新的最佳性能。
Jun, 2021