领域感知增强对无监督在线通用连续学习的应用
本文提出了一种模型无关的、能够将适应和泛化结合起来的学习方法 CoDAG,主要解决无监督连续域漂移学习的三个问题,即适应当前域、泛化到看不见的域,以及防止遗忘先前看到的域,并在多个基准数据集上展示了其有效性和鲁棒性。
Mar, 2023
本研究提出了一种名为交叉领域连续学习(CDCL)的新方法,在一个紧凑的卷积网络中结合了跨任务关注机制,实现了对先前任务特征的对齐,并在相关领域之间进行了无监督的交叉领域学习(UDA)。通过使用一种任务内特定的伪标签方法,确保了有标签和无标签样本的准确输入对,从而增强了学习过程。本方法在公开的 UDA 数据集上进行了广泛实验,显示出在交叉领域连续学习挑战上的良好性能。此外,本研究提出了增量思想,为该领域的进展做出了贡献。
Feb, 2024
本研究系统地研究了简单、基于规则的图像增强方法(如模糊、噪声、色彩抖动等)对深度神经网络(DNNs)的领域内外泛化能力。 实验结果表明,对多个不同的图像增强进行组合优于单独使用单个图像增强,并且与最先进的领域泛化方法相比表现相当。
Apr, 2023
我们提出了一种算法来解决持续学习(CL)场景中的无监督域适应(UDA)问题,主要目标是在连续到达新领域时通过更新基本模型来维持模型概括性,而后续任务中只能访问未标记的数据。我们的解决方案是通过稳定学习的内部分布来提高模型在新领域上的概括性,内部分布使用高斯混合模型(GMM)进行建模,并将新领域的内部学习分布与估计的 GMM 进行匹配来更新模型,同时利用经验重播来克服灾难性遗忘问题,并提供理论分析来解释我们算法的有效性,通过广泛的比较和分析实验证明我们的方法是有效的,我们在四个基准数据集上进行实验以证明我们的方法的有效性。
Jan, 2024
本文提出了一种基于生成式回放的无监督分割方法 GarDA(用于连续域自适应),通过不断适应一系列新的未标记数据(无需访问旧数据),使得分割模型可以对多个不同的域进行适应,并表现出比现有技术有显著的优势。
Jan, 2023
该研究提出了一种基于无监督学习方法的连续学习技术,可以在不需要人工标注的数据的情况下设法学习连续任务的特征表示,并通过使用 LUMP 技术来缓解灾难性遗忘问题。
Oct, 2021
本文提出了一种用于在线连续学习问题的简单算法,该算法采用 kNN 分类器和通用预先训练的特征提取器,可以在小的计算预算下紧凑存储和利用整个数据流,既能减少过往数据的灾难性遗忘,同时也能快速适应快速变化的数据流,同时在 Continual LOCalization (CLOC) 和 Continual Google Landmarks V2 (CGLM) 两个大规模 OCL 数据集上取得了最新的技术水平。
May, 2023