Jan, 2024

使用稳定表示和经验重演的连续无监督领域自适应

TL;DR我们提出了一种算法来解决持续学习(CL)场景中的无监督域适应(UDA)问题,主要目标是在连续到达新领域时通过更新基本模型来维持模型概括性,而后续任务中只能访问未标记的数据。我们的解决方案是通过稳定学习的内部分布来提高模型在新领域上的概括性,内部分布使用高斯混合模型(GMM)进行建模,并将新领域的内部学习分布与估计的 GMM 进行匹配来更新模型,同时利用经验重播来克服灾难性遗忘问题,并提供理论分析来解释我们算法的有效性,通过广泛的比较和分析实验证明我们的方法是有效的,我们在四个基准数据集上进行实验以证明我们的方法的有效性。