黑盒无监督领域自适应的增量伪标签
本篇论文研究了源领域无标签数据的黑盒非监督域适应 (B$^2$UDA) 问题,在此基础上提出了一种名为 Iterative Learning with Noisy Labels (IterLNL) 的简单有效方法,通过黑盒模型作为噪声标签工具进行噪声标注和学习,迭代解决该问题。实验表明,无需源数据和源模型,IterLNL 的表现可与传统有标签源数据的 UDA 方法相媲美。
Jan, 2021
本文提出了一种基于黑盒分割模型的无监督域自适应解决方案,利用指数混合衰减的知识蒸馏方案逐步学习目标特定表示,并应用无监督熵最小化来规范目标域置信度,最终在 BraTS 2018 数据库上取得了与白盒源模型适应方法相当的性能。
Aug, 2022
本文提出了一种基于伪领域生成的领域增强领域自适应方法(DADA),通过生成与目标域差异更小的伪领域,减小跨域偏差,进而增强知识转移过程并将标签方法应用于 DADA 模型中,结果表明该模型优秀。
Feb, 2022
本文提出一种基于损失加权策略的 Source-free Unsupervised Domain Adaptation 方法,该方法在没有源数据的情况下,通过估计伪标签的不确定性来逐步优化伪标签,并采用一种自监督对比框架作为目标空间规范化器来增强知识聚合,并在三个基准测试中均取得了显著的优异表现,证明了该方法的鲁棒性。
Mar, 2023
提出了一个两阶段训练策略来实现领域自适应的稳健性,第一阶段利用对抗样本增强来增强源模型的稳健性和泛化能力,第二阶段提出了一种新的稳健伪标签和伪边界方法,有效利用无标签目标数据生成伪标签和伪边界,实现模型的自适应,无需源数据。在跨领域眼底图像分割上的实验结果证实了该方法的有效性和通用性。
Oct, 2023
无源无监督域自适应的不确定性伪标签过滤适应(UPA)方法,通过自适应伪标签选择(APS)模块进行精确过滤,同时引入类感知对比学习(CACL)以降低伪标签噪声的记忆化,实现与最先进的方法相当的竞争性能。
Mar, 2024
基于深度学习的解决方案如何在面对与训练数据不同特征的情况下,语义分割会有性能下降的问题,针对此问题提出了一种无监督领域适应的方法,利用辅助伪标签优化网络进行自训练,实验结果表明这种方法在基准数据集上的表现显著优于之前的最先进方法.
Oct, 2023
该研究提出了一种利用信息论界限和特征对齐技术,将目标数据划分为伪标记子集和无标记子集以实现平衡的无监督域自适应方法,取得了比现有方法更好的性能表现。
Feb, 2022
本研究针对数据保护、存储和传输等实际场景中普遍存在的源数据访问限制,提供了一篇系统综述文章,介绍了最近提出的无源自适应方法,着重对白盒和黑盒方法进行分类,并详细讨论了各类方法中的挑战以及适用于无源数据的模型在提高泛化能力方面的流行技术和常用基准数据集。
Dec, 2022
本文提出一种基于知识引导的无监督领域自适应(KUDA)方法,通过利用目标域的先验知识,将该先验知识应用于模型生成伪标签的改进中,从而提高自训练阶段的性能。
Jul, 2022