无源域适应的可靠像素级标签生成
提出了一种无监督域适应的通用框架,利用添加额外的网络和损失函数,通过使用图像翻译框架和特征提取实现在无需目标域训练数据的情况下,测试源域训练的深度神经网络在不同的目标域上的能力,并在分类和分割任务上,应用于MNIST、USPS、SVHN和Amazon、Webcam、DSLR Office以及GTA5和Cityscapes数据集,取得了最先进的性能。
Dec, 2017
该研究提出了一种新的框架来缓解图像翻译偏差问题并将不同领域的特征对齐,该框架通过对目标到源的翻译和从预测标签中重构源和目标图像来实现。实验结果表明,该方法在从合成到真实的城市场景理解中具有良好的效果。
Mar, 2020
本文提出了一个两步自监督域自适应方法,以最小化域间和域内差距,首先进行模型的域间自适应,然后使用基于熵的排序函数将目标域分为易和难两部分,最终采用自监督自适应技术从易到难来降低域内差距。
Apr, 2020
本文研究了源自由的领域自适应问题,提出了使用图像转换方法将目标图像的风格转换为未见过的源图像的方法,从而使得使用预训练模型对转换后的图像进行分类可以得到更高的准确率。
Aug, 2020
本文提出了一种基于代表类的原型和特征距离的无监督域自适应方法,通过第一视角和第二视角目标的相对特征距离来调整原型分配,并使用特征距离来估计伪标签的概率以辅助在线纠正,同时利用自我监督训练模型进一步提高性能。
Jan, 2021
本文提出了一种基于目标域一致性训练的无监督域自适应框架,通过新的损失项实现了模型对目标图像和扰动版本的像素级一致性,并在两个挑战性的合成到真实数据集上取得了非常优秀的结果。
May, 2021
本文提出了一种利用多头框架和自学习提取可靠目标伪标签以实现无源自适应的方法,并引入了一个新的条件先验强制自编码器以改善伪标签质量。实验证明该方法在标准测试基准上显示出较高性能,并显示出与在线适应的兼容性。
Aug, 2021
提出一种针对图像数据的新型两阶段框架,通过逐步训练多尺度神经网络从源域到目标域执行图像翻译,将生成的新数据作为任何标准UDA方法的输入,以进一步降低域差距,达到提高域自适应技术的效果。
Apr, 2022
本研究提出了一种新的域自适应语义分割方法T2S-DA,通过将目标特征拉近到源特征中来提高模型的跨域特征表示性能;同时,该方法还采用动态加权策略,使模型可以更好地集中在那些表现较差的像素类别上。实验结果证明,T2S-DA方法学习的表示性能更加明显和具有一般性,且比现有的方法表现更优秀,同时还验证了其领域不变性属性。
May, 2023
通过使用源领域标签作为图像翻译的明确指导,本文提出了一种创新的方法来解决领域自适应语义分割中的语义一致的局部细节保持问题,并利用了渐进翻译学习策略来实现在具有大差距领域中可靠工作的语义梯度引导方法。大量实验证明了我们方法相对于最先进的方法的优越性。
Aug, 2023