SparCL:边缘稀疏持续学习
提出了一种用于高效学习稀疏模型的新方法,该方法能够自动修剪冗余参数而不降低模型的预测能力,并且避免了重新训练的需要。通过理论分析和设计的修剪和数据选择策略,实验结果表明该方法在减少存储和计算资源的同时,能够在连续学习任务上达到与现有方法相媲美的性能。
Jan, 2024
连续学习是指智能系统在尽可能少的计算开销下,从数据流中顺序获取和保留知识的能力。本研究通过对 Dynamic Sparse Training (DST) 的不同组成部分在连续学习范式下的影响进行了首次实证研究,以填补重要的研究空白并为连续学习中 DST 的最佳配置提供清晰的指导。通过在著名的 CIFAR100 和 miniImageNet 基准测试数据集上进行全面的研究,研究人员发现在低稀疏度水平下,Erdos-Renyi Kernel (ERK) 初始化能更有效地利用主干网络并实现任务增量的有效学习,而在高稀疏度水平下,均匀初始化展现出更可靠和稳健的性能。对于增长策略,性能取决于定义的初始化策略和稀疏度程度。最后,DST 组成部分内的适应性是提升连续学习效果的有希望的方法。
Aug, 2023
在类增量学习场景中,利用可用模型容量提出 SpaceNet,该方法从头开始以自适应方式训练稀疏的深度神经网络,压缩每个任务的稀疏连接到较少的神经元,实现稀疏表示并降低任务之间的干扰。在多个 CL 基准测试中,SpaceNet 优于基于正则化的方法,并且比扩容的基于架构的方法性能更好,同时还实现了大幅度的内存缩减。
Jul, 2020
我们提出并研究了一种现实的连续学习(CL)设置,其中学习算法在训练过程中具有每个时间步的限制计算预算。我们将此设置应用于稀疏标签率的大规模半监督连续学习场景中。我们提出了一种简单但非常有效的基准方法 DietCL,该方法联合利用未标记数据和标记数据,巧妙地分配计算预算。在多个数据集上进行验证时,DietCL 在限制预算的情况下明显优于所有现有的有监督 CL 算法以及更近期的连续半监督方法。我们的广泛分析和消融实验证明,DietCL 在标签稀疏性、计算预算和其他各种消融条件下都是稳定的。
Apr, 2024
深度状态空间模型 (DSSM) 在动态系统建模方面的能力使其在近年来受到广泛关注。然而,现有 DSSM 方法仅适用于单任务建模,需要在重新访问之前的任务时使用历史任务数据进行重新训练。为了解决这个问题,我们提出了一种连续学习 DSSM (CLDSSM) 方法,它能够适应不断变化的任务而不会导致灾难性遗忘。我们的 CLDSSM 方法整合了主流的基于正则化的连续学习方法,确保以恒定的计算和内存成本对多个动态系统进行模型化的高效更新。我们还对各个连续学习方法应用于相应的 CLDSSM 进行了全面的成本分析,并通过在真实数据集上的实验证明了 CLDSSM 的有效性。结果证实,尽管各种竞争的连续学习方法各具特点,但所提出的 CLDSSM 在解决灾难性遗忘方面始终优于传统的 DSSM 方法,并能够实现对新任务的快速准确参数传递。
Mar, 2024
本文探究了点云语义分割中类增量学习的问题,比较了不同的连续学习策略和先进的架构,并且在 SemanticKITTI 数据集上获得了与现有方法相当的效果。
Apr, 2023
提出了一种名为自适应分组稀疏的持续学习的新型正则化方法,该方法利用两种基于稀疏性的罚项来更新节点的重要性,并使用接近梯度下降方法进行学习,以明确控制模型容量,实现对新任务的高效学习,并通过重置不重要节点的权重来避免负面转移引起的灾难性遗忘。
Mar, 2020
本文探讨了基于少量标注数据的持续半监督学习问题,并设计了一种利用度量学习和一致性正则化的新方法,仅依赖 25% 的监督数据即可优于全监督训练下的 SOTA 方法。
Aug, 2021
本篇研究提出了一种名为 CLNP 的方法,通过神经模型稀疏化实现模型固定容量下的全生命周期学习,在这种方法中,使用经过稀疏化网络中的非活动神经元和滤波器来训练后续任务,并对以前任务的性能不会造成任何恶化,此外,CLNP 还提供了简单的学习诊断工具。实验证明,与当前基于权重弹性的方法相比,CLNP 能够显著提高结果。
Mar, 2019
提出了一种神经启发的连续学习(CL)方法(SHARP),该方法利用稀疏动态连接和激活重播来解决现有的重播方法忽略生物重播的两个关键方面的问题。 实验证明,SHARP 在类增量学习方面优于现有的重播方法。
May, 2023