深度基础潜空间内的无监督领域自适应
我们提出了一种使用视觉变换器 (ViT) 对转换图像进行模型微调的新方法,该转换图像域自适应方法不会导致模型准确度下降,基于 ViT 的嵌入结构进行实施,实验证实了该方法在使用 CIFAR-10 和 CIFAR-100 数据集的加密图像时仍能防止准确度下降。
Sep, 2023
提出了一种用于视觉变换器(ViT)的隐私保护深度神经网络(DNN)的新方法,该方法允许我们不仅训练模型和使用视觉受保护的图像进行测试,而且还能避免使用加密图像导致的性能下降,而传统方法无法避免图像加密的影响。通过领域适应方法,高效地对使用加密图像的 ViT 进行微调。实验证明,该方法在 CIFAR-10 和 ImageNet 数据集的图像分类任务中,在分类准确度方面优于传统方法。
Jan, 2024
无监督领域自适应方法已取得了最新的优秀成果,并大多数使用了卷积神经网络作为特征提取器,然而视觉转换器虽已被广泛应用于计算机视觉任务,却未在对抗性领域自适应中研究过,本文填补了这一空白,并证明视觉转换器可直接应用于现有的对抗性领域自适应方法,以提升性能。
Apr, 2024
本研究提出了一种名为 “可传递视觉 Transformer” 的统一框架,其中融合了迁移学习、注意力机制和聚类方法,以实现基于标签源域的无标签目标域的知识迁移。 实验证明,本文所提出的 TVT 方法优于现有的微调和迁移学习方法,通过注入可学习的传递性适应模块来强制 ViT 集中注意力在可转移和辨别性特征上,并借助判别性聚类来增强特征多样性和分离度。
Aug, 2021
该研究以无监督域自适应为主题,探索了如何利用关键元素来强化 Vision Transformers 在无源目标适应中的性能,通过引入域表示图像(DRIs)作为关键组件,提高了 Transformer 在领域泛化中的效率。
Nov, 2023
提出了一种无监督域适应的通用框架,利用添加额外的网络和损失函数,通过使用图像翻译框架和特征提取实现在无需目标域训练数据的情况下,测试源域训练的深度神经网络在不同的目标域上的能力,并在分类和分割任务上,应用于 MNIST、USPS、SVHN 和 Amazon、Webcam、DSLR Office 以及 GTA5 和 Cityscapes 数据集,取得了最先进的性能。
Dec, 2017
在计算机视觉领域,研究通过视觉基础模型和无监督域自适应方法在语义分割任务中的结合对提升无监督域自适应性能和增强视觉基础模型外分布泛化能力具有重要价值。实验结果表明,将视觉基础模型与无监督域自适应方法相结合,不仅能在维持视觉基础模型外分布性能的同时提升无监督域自适应性能,还可以减少耗时的组件,大幅提升推理速度,并取得了远超现有状态的良好表现。
Jun, 2024
本文研究了视觉 Transformer 在领域适应和领域泛化方案中的应用,包括特征级、实例级、模型级以及混合方法的适应,以及多领域学习、元学习、正则化技术和数据增强策略的领域泛化方法,总结了各种与分布变化相关的策略,并提供了有价值的洞见和综合表格,展示了视觉 Transformer 在处理分布变化方面的多样性和实用性。
Apr, 2024
本文探讨使用自我蒸馏方法解决视觉 Transformer 在领域泛化问题上的过拟合问题,并在五个具有挑战性的数据集上实现了显著的性能提升,同时表现出了对最新领域泛化方法的优异性。
Jul, 2022