持续剪枝和选择:以专业子网络进行增量式分类学习
本篇研究提出了一种名为 CLNP 的方法,通过神经模型稀疏化实现模型固定容量下的全生命周期学习,在这种方法中,使用经过稀疏化网络中的非活动神经元和滤波器来训练后续任务,并对以前任务的性能不会造成任何恶化,此外,CLNP 还提供了简单的学习诊断工具。实验证明,与当前基于权重弹性的方法相比,CLNP 能够显著提高结果。
Mar, 2019
本文研究了基于任务增量分类的持续学习方法,提出了一种新的框架来确定持续学习者的稳定性与可塑性的权衡, 并通过三个基准测试以及综合实验比较了 11 种持续学习方法和 4 种基线的方法的强弱和影响。
Sep, 2019
在类增量学习场景中,利用可用模型容量提出 SpaceNet,该方法从头开始以自适应方式训练稀疏的深度神经网络,压缩每个任务的稀疏连接到较少的神经元,实现稀疏表示并降低任务之间的干扰。在多个 CL 基准测试中,SpaceNet 优于基于正则化的方法,并且比扩容的基于架构的方法性能更好,同时还实现了大幅度的内存缩减。
Jul, 2020
本文提出了一种新的无需回放的类增量学习方法,该方法通过学习两个互补学习子网络之间的协同作用,包括联合优化可塑性 CNN 特征提取器和解析前馈分类器来实现。该方法在训练期间不需要存储过去的数据,可以掌握新的课程,同时保持对以前学习过的课程的识别和知识保留。
Jun, 2023
本文提出了一种基于准确性和稀疏性目标的深层网络动态构建算法,与传统的剪枝方法不同,本方法采用渐进式连续松弛和网络优化,然后采样稀疏子网络,使得训练出来的深层网络更加高效。实验结果证明,采用本算法训练的网络比其他竞争的剪枝方法更加精确且规模更小。
Jul, 2020
机器学习系统的持续学习能力受到灾难性遗忘的限制,本文提出一种新的概念性方法来解决持续分类中的问题,通过区分需要记忆的类别特定信息和总结泛化的类别无关知识,并且通过利用类别无关网络来执行分类,提高随时间推移过去任务的准确性,同时支持开放式分类和一次性泛化模型。
Dec, 2023
我们介绍了一种新的持续学习算法 LDA-CP&S,它可以在进行分割任务时避免灾难性遗忘。该方法应用于两种不同的表面缺陷分割问题,可以增量学习,并且能够预测先前观察到的每种缺陷。我们的方法通过迭代剪枝为每种缺陷类型创建与缺陷相关的子网络,并基于线性判别分析(LDA)训练分类器。在推理阶段,我们首先使用 LDA 预测缺陷类型,然后使用选定的子网络预测表面缺陷。我们将我们的方法与其他持续学习方法进行比较,结果显示在两个数据集上,与现有方法相比,平均交并比提高了两倍。重要的是,我们的方法在同时观察到所有训练数据(所有缺陷)时,显示出与联合训练类似的结果。
Dec, 2023
本文提出了一种选择性正则化方法,使用偏心特征蒸馏方法来判断是否执行模式完成或模式分离,并调节如何转移到前一模型的权重以保持先前知识,该方法在 CIFAR-100,ImageNet-Subset 和 ImageNet-Full 数据集上超越了现有方法的性能。
May, 2023
使用结构化剪枝方法,在不降低推理准确度的情况下,通过算法的网络增强、剪枝、子网络合并和移除,实现了高达 93% 的稀疏度与 95% FLOPs 的减少,同时在分类和分割问题上超过了先进水平,并且避免了在 GPU 上进行计算昂贵的稀疏矩阵运算。
Aug, 2023
通过观察对神经网络输出的对比损失的冗余引发能力,我们的方法利用新任务的前几个样本来识别和保留对神经网络传递能力最有贡献的参数,从而使网络的其余部分能够学习新特征,并在诸如 CIFAR10 和 TinyImagenet 等基准计算机视觉数据集上证明了在任务增量、类别增量和领域增量持续学习场景中的最先进性能。
Nov, 2023