该论文提出了一种介质域方法,使用深度学习、对抗损失等技术实现物体检测领域的域自适应,提高了目标域的检测性能。
Oct, 2019
本文提出了一种跨域弱监督目标检测的框架,通过对源领域上有实例级别注释的图像和目标领域上仅有图像级别注释的图像进行双重领域适应技术进行微调,取得了 5 到 20 个百分点的均值平均精度改进。
Mar, 2018
本论文提出了一种新的粗 - 细特征自适应方法以解决领域偏移问题,细化层面通过最小化不同领域相同类别的全局原型的距离来实现前景的条件分布对齐。通过广泛实验,结果表明该方法的广泛适用性和有效性达到了现有最优水平。
Mar, 2020
本研究提出了多层领域自适应(MLDA)框架,通过在像素、实例和类别三个补充的语义级别上处理交叉领域车道检测,以识别车道形状和位置先验知识,提出了一种新的视角来解决车道检测领域差异带来的挑战, 针对现有方法只关注像素级损失而忽略车道形状和位置先验知识的不足, 在两个挑战性数据集 TuSimple 和 CULane 中,我们的方法相对于现有领域自适应算法,在准确性和 F1 分数方面分别提高了 8.8%和 7.4%。
Jun, 2022
介绍一种新的多尺度域自适应 YOLO (MS-DAYOLO) 框架,利用多条域适应路径和相应的域分类器来生成域不变特征,用于目标检测和自动驾驶等场景中的应用。在常用数据集上的实验表明,使用所提出的 MS-DAYOLO 在训练 YOLOv4 时,能够在模拟自动驾驶场景下的复杂环境中达到显著的目标检测性能改进。
Jun, 2021
本文提出了一种新的端到端无监督深度领域适应模型,利用多标签对象识别作为双重辅助任务实现自适应对象检测,使用多标签预测揭示每个图像中的对象类别信息,然后使用预测结果执行条件对抗全局特征对齐,从而可以处理图像特征的多模态结构以在全局特征级别上连接域分歧,同时保留特征的可辨析性。此外,还引入了一种预测一致性正则化机制来辅助目标检测,该机制使用多标签预测结果作为辅助正则化信息,以确保对象识别任务和对象检测任务之间一致的对象类别发现。在几个基准数据集上进行实验,结果表明,该模型优于现有方法。
利用 MLC-Net 框架中的教师 - 学生范式生成自适应和可靠的伪目标,实现深度学习在 3D 物体检测领域可快速交叉域匹配。
Jul, 2021
我们提出了一种多层次域适应方法,利用图像风格转换、对抗训练和自监督学习来同时在图像、特征和姿态水平上进行域间对齐,实现了在姿态估计中的显著改进,超越了现有最先进算法,对人体姿态的改进高达 2.4%,对狗的改进高达 3.1%,对羊的改进高达 1.4%。
Apr, 2024
本文中,我们提出了一个统一的多粒度对齐的对象检测框架,以实现领域内不变的特征学习。我们使用来自主干网络的像素级特征图,首先开发了全尺度门控融合模块来聚合实例的判别表示,从而实现了强大的多尺度目标检测。与此同时,我们提出了多粒度鉴别器,以识别样本(即像素、实例和类别)不同粒度来自哪个领域。在不同的背骨骼架上,我们进行了广泛的实验,证明了我们的框架在锚点自由 FCOS 和锚点 Faster RCNN 检测器上的有效性。
Mar, 2022
该研究介绍了一种针对目标检测的新型无监督域适应方法,通过域多样性和多域不变表示学习两个阶段来缓解像素级适应不完美和特征级适应带来的源偏差歧视。该方法在各种数据集上 mAP 平均精度方面的表现优于现有技术达到了 3%~11% 的大幅度提升。
May, 2019