AFAN: 增强特征对齐网络用于跨域目标检测
使用 Image-Instance Full Alignment Networks(iFAN)方法,通过部分训练生成对抗域分类器,实现了多尺度特征的图像级别的对齐和深度语义信息与实例表示的实例级别的对齐,并将这种方法应用于物体检测中,取得了 SYN10K->Cityscapes 和 Cityscapes->Foggy Cityscapes 领域适应任务的 10%+AP 提升。
Mar, 2020
本文提出了渐进特征对齐网络 (PFAN) 对无监督域自适应问题进行解决,通过使用 Easy-to-Hard Transfer Strategy 和 Adaptive Prototype Alignment 步骤,使得模型能够有效地完善交叉领域的分类一致性。
Nov, 2018
本文提出了一个联合自适应检测框架 (JADF),通过联合、条件式对齐特征空间和返回类别空间,以提高无监督域自适应目标检测的性能,并提出了类别可迁移度评估指标来考虑每个对象类别的可迁移度,实现了无监督域自适应目标检测中 - state-of-the-art 性能。
Sep, 2021
本文提出了 Adversarial Feature Augmentation 和 Normalization (A-FAN) 方法,旨在将对抗性的特征嵌入到当前的视觉识别模型中,从而提高其分类、检测和分割任务的泛化能力。在各种数据集上的实验证明,A-FAN 可以有效地提高当前视觉识别任务的表现。
Mar, 2021
本研究使用生成对抗网络(GANs)的目标函数来学习与源数据集不可区分的目标特征,并将其扩展到强制学习通过特征增强在特征空间进行培训的无监督域自适应任务。结果表明,强制进行域不变性和执行特征增强可以导致几个无监督域适应基准测试的优秀或相当的性能。
Nov, 2017
通过引入条件对抗学习,基于不确定性度量的领域自适应网络 (UaDAN) 能够适应性地分别对齐良好对齐和不良对齐的样本,在图像级别和实例级别逐步实现吸收知识,显著优于现有方法。
Feb, 2021
本文提出了一种多级对抗 Faster-RCNN(MAF)框架,用于在非受限环境中利用从具有足够标签的辅助源域训练的领域知识检测对象,其中包括多个对抗域分类器亚模块、信息不变的尺度降低模块(SRM)以及加权梯度翻转层(WGRL)等,实验结果表明,MAF 在 Cityscapes,KITTI,Sim10k 等非受限任务中的表现优于现有检测器。
Jul, 2019
本文中,我们提出了一个统一的多粒度对齐的对象检测框架,以实现领域内不变的特征学习。我们使用来自主干网络的像素级特征图,首先开发了全尺度门控融合模块来聚合实例的判别表示,从而实现了强大的多尺度目标检测。与此同时,我们提出了多粒度鉴别器,以识别样本(即像素、实例和类别)不同粒度来自哪个领域。在不同的背骨骼架上,我们进行了广泛的实验,证明了我们的框架在锚点自由 FCOS 和锚点 Faster RCNN 检测器上的有效性。
Mar, 2022
本文提出一种新颖的无监督跨领域检测模型,在源域中利用标注数据训练一个针对不同目标域的物体探测器,通过在两个维度上进行跨领域特征对齐,即深度和空间维度,来缓解物体检测中的跨领域表示差异。实验证明该模型胜过现有的比较方法。
Nov, 2020