基于生成式外观回放的持续无监督领域自适应
研究使用生成对抗网络和网络抓取数据重现不可用的旧类数据,避免遗忘和背景类的数据分布变化,达到在连续学习中存在不同步骤和背景类分布变化的情况下更好的表现。
Aug, 2021
本文提出了一种新颖的连续无监督域自适应框架,MuHDi,它使用多头蒸馏方法解决了持续学习任务中的灾难性遗忘问题,并进行了大量的消融与实验说明其在挑战性的多目标UDA语义分割基准上的有效性与鲁棒性。
Apr, 2022
本文介绍了一种基于生成式联合判别器的方法,能够连续自适应多个未标记的目标领域且保护隐私,特别适用于具有长生命周期的医学学科领域,实现了对组织类型分类取得了最先进的效果。
Feb, 2023
本文提出了一种模型无关的、能够将适应和泛化结合起来的学习方法CoDAG,主要解决无监督连续域漂移学习的三个问题,即适应当前域、泛化到看不见的域,以及防止遗忘先前看到的域,并在多个基准数据集上展示了其有效性和鲁棒性。
Mar, 2023
本研究旨在通过提出一种新型架构,即C-SUDA,解决现有无源无监督领域自适应在不断学习的情况下存在的灾难性遗忘问题,并在不利于源领域的情况下,仅通过利用假标记的目标数据和源模型来维护源领域的性能,实现更好的目标领域性能。在PACS、Visda-C和DomainNet等基准数据集上的实验结果表明,C-SUDA框架能够在完全不利用源数据的情况下,保持对源域的满意性能。
Apr, 2023
本文提出了一种方法,旨在解决连续学习中的无监督域适应问题,通过修剪实现框架来保留特定于域的知识,并使用一种基于批次标准化的度量方法进行有效推理,取得了良好的性能,同时在防止过去领域的灾难性遗忘方面显著改善。
Apr, 2023
通过利用无监督的网络爬取数据检索旧类别示例,本文拓展了之前的方法(RECALL)并通过对抗学习和自适应阈值选择与当前训练数据相似的网络数据样本以解决持续学习中的遗忘问题,在多个增量学习步骤中表现出卓越的结果。
Sep, 2023
本研究提出一种在线无监督域自适应算法,通过在共享嵌入空间中最小化源潜在特征与目标特征之间的分布距离,促进两个领域之间的共享领域无关潜在特征空间,从而改善图像的语义分割模型在未注释领域上的泛化性能。为了在自适应过程中减轻对源样本访问的需求,我们通过一个合适的替代分布(如高斯混合模型)来近似源潜在特征分布。我们在已建立的语义分割数据集上评估了我们的方法,并证明它在未注释领域的泛化性能上与最先进的无监督域自适应方法相比具有竞争优势。
Jan, 2024
我们提出了一种算法来解决持续学习(CL)场景中的无监督域适应(UDA)问题,主要目标是在连续到达新领域时通过更新基本模型来维持模型概括性,而后续任务中只能访问未标记的数据。我们的解决方案是通过稳定学习的内部分布来提高模型在新领域上的概括性,内部分布使用高斯混合模型(GMM)进行建模,并将新领域的内部学习分布与估计的GMM进行匹配来更新模型,同时利用经验重播来克服灾难性遗忘问题,并提供理论分析来解释我们算法的有效性,通过广泛的比较和分析实验证明我们的方法是有效的,我们在四个基准数据集上进行实验以证明我们的方法的有效性。
Jan, 2024