无源无监督域自适应:一份调查报告
本文针对只能使用源模型进行目标领域自适应 (SFDA) 的问题,设计了一种集成多分类器的方法,其中第二个分类器旨在寻找源模型中错误分类的特征以实现 SFDA,并在多个基准数据集上验证了实验结果。
Oct, 2020
本篇论文研究了源领域无标签数据的黑盒非监督域适应 (B$^2$UDA) 问题,在此基础上提出了一种名为 Iterative Learning with Noisy Labels (IterLNL) 的简单有效方法,通过黑盒模型作为噪声标签工具进行噪声标注和学习,迭代解决该问题。实验表明,无需源数据和源模型,IterLNL 的表现可与传统有标签源数据的 UDA 方法相媲美。
Jan, 2021
通过知识迁移和自监督学习,提出了一种基于 source-free 的语义分割域适应框架 SFDA,它可以在只有一个经过良好训练的源模型和一个未标注的目标域数据集的情况下,在语义分割中恢复和保存源域知识。
Mar, 2021
该研究提出了一种算法,可以在没有源数据和目标标签的情况下,自动结合适当的权重来组合源模型,以获得与最佳源模型同样好的性能,这为无监督领域自适应提供了实用性的解决方案。
Apr, 2021
本文提出了一种广义源自由域自适应(G-SFDA)的新域自适应范例,其中仅在自适应期间访问当前未标记的目标数据,该方法基于局部结构聚类(LSC)和稀疏域注意力(SDA)以保持源信息的同时为不同领域激活不同的特征通道。实验表明,本文所提出的方法的目标表现与现有域自适应(DA)和源自由域自适应(SFDA)方法相当或更好,并在VisDA上实现了最先进的性能(85.4%)。
Aug, 2021
本文提出了一种无监督领域自适应的方法——源自由(SFUDA),其中使用预先训练的源模型而不使用源数据来在未标记的目标域中获得高性能。提出一种新的样本自信度评分——联合模型数据结构(JMDS)评分,用于SFUDA中,它使用源和目标域知识,用作样本权重的JMDS分数,以及我们提出的Mixup变体的权重Mixup构成的CoWA-JMDS框架,该方法区分了样本的重要性。实验结果显示,JMDS分数表现优于现有的置信度分数,CoWA-JMDS在闭合、开放和部分集情景下均取得了最先进的性能。
Jun, 2022
深度学习在许多领域都展现出其超凡表现,但仅仅依靠大量标记数据来训练模型并不能保证其在面临目标域的分布变化时仍有出色的表现,无监督域自适应通过利用源领域标记数据和目标领域未标记数据来解决该问题,并已在自然图像处理、自然语言处理等领域取得了许多令人期待的结果,该文对该领域的方法和应用进行了系统比较,并强调了当前方法的不足及未来研究方向。
Aug, 2022
研究表明在无标签目标数据存在特定要求(如封闭集和标签分布一致)或实际应用场景(如OOB和标签分布转移)的情况下,基于无源数据的领域自适应(SFUDA)方法具有很大的限制。通过实验证明,使用源预训练模型和少量标记数据的微调方法是一种可靠的解决方案,实验结果表明这种方法的性能优于其他方法。}
Apr, 2023
无源无监督领域自适应(SFUDA)是一个具有挑战性的任务,模型需要在没有目标领域标签或源领域数据的情况下适应新领域。本文提出了一种新的方法,通过考虑每个样本的多个预测假设并研究每个假设的合理性来解决该问题。通过整合这些假设的理由,我们可以识别最有可能的正确假设,并将其作为伪标签集来支持半监督学习过程进行模型自适应。我们提出了一个三步自适应过程:模型预自适应、假设整合和半监督学习,以实现最佳性能。广泛的实验结果表明我们的方法在SFUDA任务中达到了最先进的性能,并可以轻松集成到现有方法中以改善其性能。
Feb, 2024
通过综合基准评估方法,本研究针对图像分类中的无源无监督领域自适应(SF-UDA)提供了一个全面的基准框架,旨在实现对SF-UDA方法中多个关键设计因素之间复杂关系的严格经验理解,并对多种SF-UDA技术进行了实证研究,评估它们在数据集上的一致性、对特定超参数的敏感性以及在不同主干架构下的适用性,强调了主干架构和预训练数据集选择对SF-UDA性能的重要性。
Feb, 2024