面向类增量学习的在线超参数优化
通过在课堂渐进学习中使用替代样本和在线学习算法,我们提出的方法在保留旧课程知识的同时,有效地适应新课程,无需额外的监督或内存预算,并超过其他课堂渐进学习方法的性能。
Oct, 2023
基于在线继续学习的类别增量学习 (Class incremental learning, CIL) 旨在从数据流中仅使用每个数据点进行一次训练,从一系列新类别中获得知识。本文提出了一种名为 FOCIL 的新的在线 CIL 方法,它通过为每个任务训练随机修剪的稀疏子网络来不断微调主体结构,然后冻结训练好的连接以防止遗忘。FOCIL 还能自适应地确定每个任务的稀疏度水平和学习速率,并确保在所有任务中(几乎)不会遗忘,而无需存储任何重播数据。10 个任务的 CIFAR100、20 个任务的 CIFAR100 和 100 个任务的 TinyImagenet 的实验结果表明,我们的方法在性能上大幅优于 SOTA。代码可在此 https URL 公开获取。
Mar, 2024
在大规模的 ImageNet 数据集上,我们探索了一种从已经训练好的模型中增量学习的方法,通过二阶段训练方案,融合与增强,我们的方法比现有的方法在准确率上提高了 10%。
Apr, 2022
本文研究了挑战性的连续学习(CL)设置下的类增量学习(CIL),证明了 CIL 是可学的,并基于理论提出了一种新的 CIL 算法,并通过实验结果证明了其有效性。
Jun, 2023
类渐进学习是从数据流中构建分类模型的目标。本文通过统计分析框架量化各个因素对增量性能的相对贡献,发现初始训练策略是影响平均增量准确性的主要因素,而 CIL 算法的选择对防止遗忘更为重要。基于此分析,我们提出了选择相应初始训练策略的实际建议,以促进增量学习的实际应用部署。
Aug, 2023
在连续学习中,对于每个测试样本预测任务标识符是一个具有挑战性的问题。本文提出了一种新的方法 TPLR(基于似然比的任务标识符预测),该方法利用了连续学习中的额外信息,显著优于强对比模型。
Sep, 2023
本文提出了一种新的无需回放的类增量学习方法,该方法通过学习两个互补学习子网络之间的协同作用,包括联合优化可塑性 CNN 特征提取器和解析前馈分类器来实现。该方法在训练期间不需要存储过去的数据,可以掌握新的课程,同时保持对以前学习过的课程的识别和知识保留。
Jun, 2023
研究表明,类增量学习 (CIL) 的问题可以分解为两个子问题:任务内预测 (WP) 和任务 ID 预测 (TP),其中 TP 与分布外检测 (OOD) 相关联。该研究的关键结论是,无论是否通过 CIL 算法显式或隐式定义 WP 和 TP 或 OOD 检测,优秀的 WP 和 TP 或 OOD 检测都对于良好的 CIL 表现是必要且充分的,其中 TIL 就是 WP。基于理论结果,还设计了新的 CIL 方法,其在 CIL 和 TIL 两个设置中性能均优于强基线。
Nov, 2022
我们提出了一种新的无样本增量学习方法,通过采用多分布匹配扩散模型来统一训练数据的质量,弥合不同域之间的差距,并通过选择性合成图像增强来扩展训练数据的分布,从而增强模型的可塑性和最终组件的性能,在增量训练期间提升模型的稳定性,实验证明这种方法优于之前的无样本增量学习方法并达到了最先进的性能。
Mar, 2024
本文提出了一种选择性正则化方法,使用偏心特征蒸馏方法来判断是否执行模式完成或模式分离,并调节如何转移到前一模型的权重以保持先前知识,该方法在 CIFAR-100,ImageNet-Subset 和 ImageNet-Full 数据集上超越了现有方法的性能。
May, 2023