超网络用于连续的半监督学习
本文提出了一种基于任务条件化超网络的新方法,使得连续学习的模型可以通过简单的关键特征记住特定任务的权重实现在记忆中的持久化, 并在标准连续学习基准测试上达到了最先进的性能,同时揭示了该方法在迁移学习上的应用前景。
Jun, 2019
本文研究了基于任务增量分类的持续学习方法,提出了一种新的框架来确定持续学习者的稳定性与可塑性的权衡, 并通过三个基准测试以及综合实验比较了11种持续学习方法和4种基线的方法的强弱和影响。
Sep, 2019
本文针对循环神经网络(RNNs)顺序数据的连续学习(CL)方法进行了全面评估,发现了应用权重重要性方法时的特殊性,并提出了一种基于超级网络的正则化方法,有效解决了RNNs上的连续学习问题。
Jun, 2020
提出 Deep Online Replay with Discriminator Consistency (ORDisCo) 方法,使用条件生成式对抗网络和在线重放策略实现无标记的半监督连续学习(SSCL),稳定关键鉴别器参数以避免遗忘和显著提高性能。
Jan, 2021
研究了半监督连续学习 (SSCL) 模型,使用伪标记、一致性正则化、知识蒸馏和外域检测策略,能够在 SSCL CIFAR-100 实验中最多提高 54.5% 平均任务准确性并减少存储图像数量。
Jan, 2021
论文探索了半监督持续学习方法,该方法能从标记数据中预测未标记数据的梯度,进而将未标记数据应用到有监督持续学习中。实验结果表明,未标记图像可以增强持续学习模型对未见数据的预测能力并显著缓解灾难性遗忘。
Jan, 2022
该研究提出了一种适用于部分标记数据的对比损失函数SemiCon,并通过利用无标签数据流训练的基于记忆的方法来证明了其有效性。在Split-CIFAR10和Split-CIFAR100数据集上,与现有的半监督方法相比,我们的方法在可用很少的标签时效果更佳,只使用了2.6%的标签和10%的标签,就可以获得与最新的监督方法相似的结果。
Jul, 2022
本研究提出了部分权重生成的超网络,针对连续学习中忘记问题进行了实验,发现与激活重演方法相比,部分超网络保持了先前经验的准确性,并提供了计算和最终测试准确性之间有效的平衡。
Jun, 2023
我们提出了一种名为动态子图蒸馏(DSGD)的新方法,它利用语义和结构信息,实现对无标签数据的稳定知识蒸馏,对分布偏差具有鲁棒性,并在半监督连续学习场景中减轻了灾难性遗忘问题。
Dec, 2023
我们提出并研究了一种现实的连续学习(CL)设置,其中学习算法在训练过程中具有每个时间步的限制计算预算。我们将此设置应用于稀疏标签率的大规模半监督连续学习场景中。我们提出了一种简单但非常有效的基准方法DietCL,该方法联合利用未标记数据和标记数据,巧妙地分配计算预算。在多个数据集上进行验证时,DietCL在限制预算的情况下明显优于所有现有的有监督CL算法以及更近期的连续半监督方法。我们的广泛分析和消融实验证明,DietCL在标签稀疏性、计算预算和其他各种消融条件下都是稳定的。
Apr, 2024