- 平衡的破坏 - 重建动态用于记忆回放类增量学习
通过平衡当前阶段的样本和内存中保存的样本的贡献,提出了一种新的平衡破坏与重建模块(BDR),用于记忆回放的类增量学习(CIL),通过减少旧知识的最大破坏程度,可以实现更好的知识重建。实验证明,作为一种轻量级即插即用模块,BDR 能显著提高现 - ICLR神经崩溃终点:类增量学习及其变种的统一解决方案
该论文提出了一种统一的解决方案,通过神经崩溃终局将分类增量学习、灾难性遗忘和数据不平衡与数据稀缺等问题融合在一起,并通过原型演化方案实现了对背景特征的平滑转变,从而在面临常规情况、长尾类增量学习和少样本类增量学习时实现了更好的学习能力。
- ICML持续学习的可学习性和算法
本文研究了挑战性的连续学习(CL)设置下的类增量学习(CIL),证明了 CIL 是可学的,并基于理论提出了一种新的 CIL 算法,并通过实验结果证明了其有效性。
- 对手感知的持续学习
本文提出了一种对抗背景攻击的新型防御性框架,该框架利用了攻击者隐藏后门模式的能力,提出了学习一个更加可感知(更强大)的模式以抵抗攻击的思想,同时通过使用多种连续学习基准数据集来证明其有效性。
- 开放世界持续学习:统一新颖性检测和持续学习
论文理论证明了,对于 class incremental learning 来说,out-of-distribution detection 实际上是必需的。因此,一个好的 class incremental learning 算法必须要同 - 随机辅助类别增强和混合特征的非典型类别增量学习
本文提出了名为 RAMF 的非示例类增量学习方法,该方法包含随机辅助类增强和混合特征。通过对输入应用三种不同的增强方法,生成增强样本和额外的类标签,从而扩展数据和标签空间,减少特征空间变化并提高模型泛化能力。通过混合新旧特征,旧知识可以保留 - 为类增量学习在视觉 Transformer 中保留局部性
通过实验结果证明,采用 Locality-Preserved Attention (LPA) 可以防止 Vision Transformers 学习新的类别时出现 Locality Degradation 现象,从而保留更多的低层局部信息, - PointCLIMB: 一种无标杆点云类增量基准测试
本文提出了 PointCLIMB 模型,探究了一种在点云数据中使用无样本类增量学习的方法,并在 ModelNet40 数据集上进行了展示。
- CVPR密集网络扩展用于类别增量学习
提出了一种基于 Dense Network Expansion 和 Cross-Task Attention 机制的类别增量学习方法,实现了在保持旧数据特征空间的基础上,减缓网络和特征规模增长速率,解决了算法复杂度和准确率之间的 trade - 解决不间断学习问题的理论研究
研究表明,类增量学习 (CIL) 的问题可以分解为两个子问题:任务内预测 (WP) 和任务 ID 预测 (TP),其中 TP 与分布外检测 (OOD) 相关联。该研究的关键结论是,无论是否通过 CIL 算法显式或隐式定义 WP 和 TP 或 - 基于分布外重放的连续学习多头模型
本文提出了一种基于 Transformer 网络的多头模型,使用类特定的分类器来解决类不断增加的连续学习任务,同时支持不同类别数据的 Out-of-Distribution 检测,实验结果优于现有技术。
- 一种多标签连续学习框架,以扩展深度学习方法以进行包装设备监控
本研究提出了一种高效的方法,用于处理 Domain Incremental Learning 场景下的 multi-label classification 问题,并能够在 Class Incremental Learning 场景下应用, - 零数据增量学习的类印象
提出了一种新型的、无需实际数据的分类增量学习框架,采用数据合成的方式生成虚拟数据大大缓解了灾难性遗忘现象,采用余弦归一化交叉熵损失、边际损失和领域对比损失来优化模型的分类性能,将该方法与现有方法进行比较实验,并在诊断心脏超声图像方面取得了很 - TKIL:基于正切核的类平衡增量学习方法
该研究提出了一种基于神经切向核方法的深度神经网络类增量学习方法(TKIL),可以更好地平衡跨类别的性能,实现更高的整体准确性和方差。
- CVPR模拟神谕:一种用于类别增量学习的初始相位去相关方法
本研究提出了一种新的 CIL 学习方法,称为 CwD,其中通过有效地规范每个类的表示来使其更均匀地分散,从而提高了现有最先进方法的性能约 1%至 3%。
- SpaceNet: 为持续学习腾出自由空间
在类增量学习场景中,利用可用模型容量提出 SpaceNet,该方法从头开始以自适应方式训练稀疏的深度神经网络,压缩每个任务的稀疏连接到较少的神经元,实现稀疏表示并降低任务之间的干扰。在多个 CL 基准测试中,SpaceNet 优于基于正则化 - SS-IL: 基于分离 Softmax 的增量学习
通过对先前流派中分类分数导致偏差的原因进行系统分析,我们提出了一种称为 Separate softmax for incremental learning (SS-IL) 的新方法,它由分离的 softmax (SS) 输出层和面向任务的知 - 在类增量学习中维护差异性和公正性
本文提出了一种基于知识蒸馏和权重对齐的类增量学习方法,能够有效减轻灾难性遗忘,提高模型性能,实验证明此方法在几种数据集上明显优于现有最先进方法。