该研究实证分析了在连续学习过程中,引入极小的叙事性记忆在任务之间转移知识的有效性,并发现相较于特定的连续学习方法,该方法能利用极小的记忆显著提升泛化能力,对小样本问题有一定的启示。
Feb, 2019
研究了半监督连续学习 (SSCL) 模型,使用伪标记、一致性正则化、知识蒸馏和外域检测策略,能够在 SSCL CIFAR-100 实验中最多提高 54.5% 平均任务准确性并减少存储图像数量。
Jan, 2021
该研究提出了一种基于无监督学习方法的连续学习技术,可以在不需要人工标注的数据的情况下设法学习连续任务的特征表示,并通过使用LUMP技术来缓解灾难性遗忘问题。
Oct, 2021
通过装备分类器,使其具备类相似性度量作为学习参数,通过Mahalanobis相似性计算来鼓励学习与这些额外参数无缝连续学习骨干表示,我们提出了一种基于参数指数移动平均值的方法来更好地进行知识蒸馏,展示了现有的持续学习算法在多个分布下容易忘记,而我们的方法意味着当面对来自不同领域的新任务时,在DomainNet和OfficeHome等具有挑战性的数据集上准确度可以提高高达10%
Mar, 2022
本文提出了一种方法,旨在解决连续学习中的无监督域适应问题,通过修剪实现框架来保留特定于域的知识,并使用一种基于批次标准化的度量方法进行有效推理,取得了良好的性能,同时在防止过去领域的灾难性遗忘方面显著改善。
Apr, 2023
统一域增量学习(UDIL)是一个适用于域递增学习的统一框架,通过使用自适应系数进行训练,始终实现最紧密的错误界限,并在合成和实际数据集上优于现有方法。
Oct, 2023
我们提出了一种算法来解决持续学习(CL)场景中的无监督域适应(UDA)问题,主要目标是在连续到达新领域时通过更新基本模型来维持模型概括性,而后续任务中只能访问未标记的数据。我们的解决方案是通过稳定学习的内部分布来提高模型在新领域上的概括性,内部分布使用高斯混合模型(GMM)进行建模,并将新领域的内部学习分布与估计的GMM进行匹配来更新模型,同时利用经验重播来克服灾难性遗忘问题,并提供理论分析来解释我们算法的有效性,通过广泛的比较和分析实验证明我们的方法是有效的,我们在四个基准数据集上进行实验以证明我们的方法的有效性。
Jan, 2024
本研究提出了一种名为交叉领域连续学习(CDCL)的新方法,在一个紧凑的卷积网络中结合了跨任务关注机制,实现了对先前任务特征的对齐,并在相关领域之间进行了无监督的交叉领域学习(UDA)。通过使用一种任务内特定的伪标签方法,确保了有标签和无标签样本的准确输入对,从而增强了学习过程。本方法在公开的UDA数据集上进行了广泛实验,显示出在交叉领域连续学习挑战上的良好性能。此外,本研究提出了增量思想,为该领域的进展做出了贡献。
Feb, 2024
本文提出了一种名为Drift-Reducing Rehearsal (DRR)的新型排练策略,以减轻连续领域漂移并在在线持续学习中实现最先进的性能。
May, 2024
本文研究了一种相对未被深入探讨的学习范式——在线无监督持续学习(O-UCL),该范式处理不断变化的无标签数据流并逐步识别不断增加的类别。提出的基于补丁的对比学习和记忆巩固(PCMC)方法,通过识别和聚类补丁级特征构建数据的复合理解,能够在避免灾难性遗忘的同时将新数据融入模型分布。实验表明,PCMC在多个数据流上表现优良,展现了其在真实应用中的潜力。
Sep, 2024