基于预测误差的增量式分类学习
本论文全面调查了现有的针对图像分类的类增量学习方法,特别是在13种类增量方法上进行了广泛的实验评估,包括多个大规模图像分类数据集上的类增量方法比较,小范围和大范围域转移的研究,以及各种网络架构的比较。
Oct, 2020
本文提出了一种基于分离学习策略的持续演化分类器(CEC)框架,该框架在每个增量会话中只更新分类器,从而避免了表示的知识遗忘问题,并采用伪增量学习方法优化图参数来构建持续的上下文信息传递网络,以解决少样本类别增量学习(FSCIL)的课程先决问题,实验结果表明该方法在 CIFAR100、miniImageNet和Caltech-USCD Birds-200-2011(CUB200)等基准数据集上表现出 remarkable 的优势。
Apr, 2021
本研究提出了一种新的CIL学习方法,称为CwD,其中通过有效地规范每个类的表示来使其更均匀地分散,从而提高了现有最先进方法的性能约1%至3%。
Dec, 2021
该研究提出了一个名为PyCIL的Python工具箱,实现了几个关键算法,可以用于在面对新类别数据时进行类增量学习。该工具箱包含许多CIL的奠基作品的实现,如EWC和iCaRL,同时还提供了一些当前最先进的算法。
Dec, 2021
在大规模的ImageNet数据集上,我们探索了一种从已经训练好的模型中增量学习的方法,通过二阶段训练方案,融合与增强,我们的方法比现有的方法在准确率上提高了10%。
Apr, 2022
本文提出个体分类器与冻结特征提取器(ICE)框架及其三个变体,旨在缓解分类器漂移,以无存储旧类别样本的情况下,连续从数据流中学习新类别。在6个分类增量信息提取任务上的实验结果表明,与现有最先进方法相比,我们的解决方案(尤其是ICE-O)始终表现出显著的改进,提供了强有力的基线和未来研究的启示。
May, 2023
类渐进学习是从数据流中构建分类模型的目标。本文通过统计分析框架量化各个因素对增量性能的相对贡献,发现初始训练策略是影响平均增量准确性的主要因素,而CIL算法的选择对防止遗忘更为重要。基于此分析,我们提出了选择相应初始训练策略的实际建议,以促进增量学习的实际应用部署。
Aug, 2023
广泛使用的排练策略可通过保留先前任务的有限示例来缓解课内增量学习中的灾难性遗忘问题。本研究展示了课内增量学习中动态数据不平衡的特点,并提出了一种新颖的动态残差分类器(DRC)来处理这种具有挑战性的情况。
Aug, 2023
无先例的课程增量学习中,使用冻结的特征提取器基于欧氏距离生成类原型并进行分类,然而,欧氏距离在非静态数据学习时表现亚优,特征分布异质。为了解决这个挑战,我们重新考虑适用于课程增量学习的各向异性马氏距离,并经验证明建模特征协方差关系要优于从正态分布中采样特征和训练线性分类器的先前方法,且我们的方法在多样本和少样本课程增量学习设置以及域增量学习设置上具有广泛适用性。有趣的是,在不更新主干网络的情况下,我们的方法在多个标准连续学习基准上取得了最先进的结果。
Sep, 2023