在线连续学习中的样本压缩
本文提出了一种用于在线连续学习问题的简单算法,该算法采用 kNN 分类器和通用预先训练的特征提取器,可以在小的计算预算下紧凑存储和利用整个数据流,既能减少过往数据的灾难性遗忘,同时也能快速适应快速变化的数据流,同时在 Continual LOCalization (CLOC) 和 Continual Google Landmarks V2 (CGLM) 两个大规模 OCL 数据集上取得了最新的技术水平。
May, 2023
本文提出了一个新的问题 ——Memory-Constrained Online Continual Learning (MC-OCL),我们通过 Batch-level Distillation(BLD)这种基于正则化的 CL 方法来解决这个问题,并在三个公开的基准测试中证明了我们的方法成功地解决了 MC-OCL 问题,同时实现了与需要更高存储开销的先前 distillation 方法相当的准确性。
Aug, 2020
连续图学习(CGL)旨在用以流式传入的图数据不断更新图模型。本论文提出了一种名为 “Condense and Train (CaT)” 的框架来解决 CGL 中存在的数据不平衡和历史分布近似问题,通过对新来的图进行精简并将其存入 “Condensed Graph Memory” 中,最终通过 “Training in Memory” 方案来直接更新模型。在四个基准数据集上进行的广泛实验成功证明了所提出的 CaT 框架在效果和效率上的优越性。
Sep, 2023
该论文探讨了在机器学习系统中,面对一个不断涌现的数据流的情况下,通过回放的方法来控制采样记忆,从而提供全新的方案来解决单通道数据训练面临的挑战,并通过多个标准基准测试,达到了与或超过现有最先进技术的表现。
Aug, 2019
本文总结并讨论了最近采用突触正则化、结构可塑性和经验重放等技术解决连续流式数据学习时的灾难性遗忘问题的深度学习方法,并通过实证表明,与不采用经验重放的架构相比,在在线增量学习任务中,带有经验重放的架构通常更具有优势。
Mar, 2020
本文提出一种新的可扩展体系结构和训练算法解决 Deep Learning 在 lifelong learning 场景中面临的挑战,尤其是在训练时间和内存限制下存储经验的问题,并在性能评估中取得了显著提升。
Nov, 2017
在线连续学习是解决从连续数据流中学习不断出现的新分类任务的问题,本文提出了 Collaborative Continual Learning (CCL) 和 Distillation Chain (DC) 两种方法,通过合作学习和知识蒸馏,大幅提高了模型的学习能力和性能。
Dec, 2023
本文提出了一种控制遗忘的连续学习方法,通过基于有约束优化的观点来选择回放缓冲区的样本,以减少学习中遗忘的现象,并且与其他基于任务边界的现有方法进行了比较。
Mar, 2019
基于丰富的记忆资源和训练效率的重视,我们引入了一种适应性记忆回放的框架来解决不断学习问题,通过多臂赌博机问题的方法来动态选择训练数据,从而在保持高性能的同时减少了遗忘达 10%。
Apr, 2024
在线连续学习中,通过在单通数据流中不断学习新数据并减轻灾难性遗忘的问题,本文分析了在新的学习任务中为何在线学习模型无法很好地泛化的快捷学习,然后提出了在线原型学习框架(OnPro),通过在线原型平衡和自适应原型反馈机制,达到良好分离所有已见类别、学习新类别的平衡状态,并在广泛使用的基准数据集上通过实验证明了 OnPro 相对于最先进的基准方法的卓越性能。
Aug, 2023