增量开放集领域适应
我们提出了一个能够将数据因子化为共享和私有部分并鼓励共享表示具有判别性的框架,以自动检测目标数据中出现的新类别并将其丢弃,从而在开放域适应中显著优于现有技术。
May, 2018
本文提出了一种增量域自适应的方法,它采用了在自然语言处理中广泛使用的递归神经网络,并将它与参数化的内存库结合起来,通过每次RNN转移步骤进行检索和更新,以构建一个在所有域上表现良好的统一模型。实验结果表明,与fine-tuning单独方法相比,我们的方法表现明显更好。
Nov, 2018
本文提出了一种增量学习方法,基于Tucker分解来跨领域学习和任务学习,不会产生灾难性遗忘,此方法在Visual Decathlon Challenge的10个数据集上展现出了紧凑表示的效果和与其他方法相当的性能。
Apr, 2019
该研究提出一种新的自监督学习方法,通过旋转识别任务来解决开放集领域适应中的已知/未知样本分离及其性能评估问题,并在Office-31和Office-Home基准测试中表现出较好的性能和可重复性。
Jul, 2020
该研究提出了一种实用的域自适应范式——增量类别域自适应(Class-Incremental Domain Adaptation,CIDA),并且根据理论和实证观察,提出了一种基于样板网络的有效方法,使得在域偏移的情况下可以对目标样本进行分类,并且可以对共享的和新的目标类进行分类,其性能优于CIDA范式中的DA和CI方法。
Aug, 2020
本文提出了一种逐步的伪标记方法来实现源自由的开放域适应,并引入了平衡伪标记(BP-L)策略来加强模型的分类扩展性和预测校准性能,在基准图像分类和动作识别数据集上验证了所提出方法能有效提升模型性能。
Feb, 2022
本研究旨在通过提出一种新型架构,即C-SUDA,解决现有无源无监督领域自适应在不断学习的情况下存在的灾难性遗忘问题,并在不利于源领域的情况下,仅通过利用假标记的目标数据和源模型来维护源领域的性能,实现更好的目标领域性能。在PACS、Visda-C和DomainNet等基准数据集上的实验结果表明,C-SUDA框架能够在完全不利用源数据的情况下,保持对源域的满意性能。
Apr, 2023
本文提出了一种方法,旨在解决连续学习中的无监督域适应问题,通过修剪实现框架来保留特定于域的知识,并使用一种基于批次标准化的度量方法进行有效推理,取得了良好的性能,同时在防止过去领域的灾难性遗忘方面显著改善。
Apr, 2023
通过提取未知实例的高置信度集合,并将其用作限制条件来收紧开放集域自适应方法的分类边界,改进了开放集域自适应方法。在包含Office-31和Office-Home数据集的广泛实验中,对OVANet进行评估,观察到连续改进的结果,Office-31的准确率和H-Score绝对增益高达1.3%,Office-Home的准确率增益为5.8%,H-Score增益为4.7%。
Sep, 2023