团队合作并非总是良好的:一个分类器漂移的实证研究在类别增量化信息提取中
本论文全面调查了现有的针对图像分类的类增量学习方法,特别是在13种类增量方法上进行了广泛的实验评估,包括多个大规模图像分类数据集上的类增量方法比较,小范围和大范围域转移的研究,以及各种网络架构的比较。
Oct, 2020
本文提出了一种基于分离学习策略的持续演化分类器(CEC)框架,该框架在每个增量会话中只更新分类器,从而避免了表示的知识遗忘问题,并采用伪增量学习方法优化图参数来构建持续的上下文信息传递网络,以解决少样本类别增量学习(FSCIL)的课程先决问题,实验结果表明该方法在 CIFAR100、miniImageNet和Caltech-USCD Birds-200-2011(CUB200)等基准数据集上表现出 remarkable 的优势。
Apr, 2021
本研究提出了一种新的CIL学习方法,称为CwD,其中通过有效地规范每个类的表示来使其更均匀地分散,从而提高了现有最先进方法的性能约1%至3%。
Dec, 2021
本文研究了班级迭代学习中的稳定性和可塑性之间的平衡,通过分析工具测量了特征表示的稳定性和可塑性,并发现大多数班级迭代学习算法更偏向稳定性而非可塑性,这不仅启发了新的算法,也提醒了班级迭代学习算法需要不断改进特征表示学习。
Apr, 2023
该研究提出了一种新方法,基于预测误差的分类(PEC),用于解决类递增学习中的遗忘和不平衡问题。实验结果表明,PEC在单次数据通过的CIL中表现出色,能够在多个基准测试中优于其他无重复排练基线和中等重放缓冲区大小的重放基础方法。
May, 2023
类渐进学习是从数据流中构建分类模型的目标。本文通过统计分析框架量化各个因素对增量性能的相对贡献,发现初始训练策略是影响平均增量准确性的主要因素,而CIL算法的选择对防止遗忘更为重要。基于此分析,我们提出了选择相应初始训练策略的实际建议,以促进增量学习的实际应用部署。
Aug, 2023
无先例的课程增量学习中,使用冻结的特征提取器基于欧氏距离生成类原型并进行分类,然而,欧氏距离在非静态数据学习时表现亚优,特征分布异质。为了解决这个挑战,我们重新考虑适用于课程增量学习的各向异性马氏距离,并经验证明建模特征协方差关系要优于从正态分布中采样特征和训练线性分类器的先前方法,且我们的方法在多样本和少样本课程增量学习设置以及域增量学习设置上具有广泛适用性。有趣的是,在不更新主干网络的情况下,我们的方法在多个标准连续学习基准上取得了最先进的结果。
Sep, 2023
本研究介绍了一个两阶段的框架,旨在加强长尾类增量学习,使模型能够在逐步学习新类别的同时,减轻在长尾数据分布中可能出现的灾难性遗忘。该框架通过利用全局方差作为信息度量和第二阶段的类别原型,实现了分类器的对齐,从而有效捕捉类别属性,消除了数据平衡或额外层调整的需求。在第一阶段使用传统的类别增量学习损失函数的同时,该方法加入了混合类别以学习鲁棒的特征表示,确保更平滑的边界。该框架可以作为一个模块与任何类别增量学习方法无缝集成,有效处理长尾类增量学习场景。在CIFAR-100和ImageNet-Subset数据集上进行的大量实验证明了该方法的有效性,在各种长尾类增量学习设置中表现出了优越性。
Nov, 2023
提出了一种基于特征丰富性的有效秩增强方法(RFR),旨在提高前向兼容性,该方法通过在基础会话期间增加表示的有效秩,从而便于将更多信息丰富的特征纳入未见过的新任务中,并验证方法的有效性和性能改进。
Mar, 2024
本研究解决了在无示例类别增量学习(EFCIL)中模型在序列任务训练时面临的两大关键问题:协方差矩阵未适应的变化和任务近期偏差。我们提出的AdaGauss方法通过任务间调整协方差矩阵和引入抗崩溃损失函数,有效缓解了这些问题,并在EFCIL基准测试中取得了最先进的结果。
Sep, 2024