无源、仅图像的无监督领域适应用于类别水平的物体姿态估计
本文提出了一种无监督领域自适应方法(UDA-COPE)来实现基于类别的物体姿态估计,不需要使用目标域的姿态标签,而是使用一种带有学生 - 教师自监督学习框架的姿态估计网络进行训练,并在预测出来的归一化物体坐标空间地图和真实点云之间介绍了一个双向过滤器来提供给学生网络训练更可靠的伪标签,实验结果表明,该算法在不使用目标域 GT 标签的情况下,可以达到与基于 GT 标签的现有方法相当甚至更好的表现。
Nov, 2021
本文提出了 SF-UDA^3D 框架,基于伪标注、可逆的尺度转换和运动相干性,将最先进的 PointRCNN 3D 检测器域自适应到无注释目标域中,结果在 KITTI 和 nuScenes 上都优于以前的特征对齐方法和最先进的 3D 目标检测方法。
Oct, 2020
本研究提出了一种新的无监督域自适应方法,通过粗、细两个阶段中的影像级对齐和类别级别特征分布规则化来统一解决影像级别和类别级别导致的域差异问题,其中概念中的 “类别级别特征分布” 指的是使用三元组损失限制源域的类别中心和自监督一致性规则化目标域,实验证明本研究所提出的方法提高了分割模型的泛化能力并显著优于之前的方法。
Mar, 2021
本文提出了一种新颖的面向室内三维物体检测的对象层次域对齐(OHDA)框架,其中包括一种面向对象的数据增强策略以有效地使源域数据多样化,并引入了一个由对抗训练分支和伪标记分支组成的两分支自适应框架,以同时达到整体级和类别级的域对齐,通过适应结果的改进在 Synthetic 数据集 3D-FRONT 到真实数据集 ScanNetV2 和 SUN RGB-D 上分别取得了分别为 9.7%和 9.1%的 mAP25 改进。
Jun, 2024
本文提出了一种源自由的无监督领域自适应方法,使用预先训练的源模型和未标记的目标图像,通过数据增强和一致性目标来捕捉不确定性,并且鼓励特征生成器在决策边界外学习一致的视觉特征,以增强模型对图像扰动的鲁棒性,并且利用超空间对齐和内空间一致性来减少源域和目标域之间的领域差距,实验结果表明,该方法对于图像扰动具有更强的鲁棒性。
Aug, 2022
通过知识迁移和自监督学习,提出了一种基于 source-free 的语义分割域适应框架 SFDA,它可以在只有一个经过良好训练的源模型和一个未标注的目标域数据集的情况下,在语义分割中恢复和保存源域知识。
Mar, 2021
本研究提出一种在线无监督域自适应算法,通过在共享嵌入空间中最小化源潜在特征与目标特征之间的分布距离,促进两个领域之间的共享领域无关潜在特征空间,从而改善图像的语义分割模型在未注释领域上的泛化性能。为了在自适应过程中减轻对源样本访问的需求,我们通过一个合适的替代分布(如高斯混合模型)来近似源潜在特征分布。我们在已建立的语义分割数据集上评估了我们的方法,并证明它在未注释领域的泛化性能上与最先进的无监督域自适应方法相比具有竞争优势。
Jan, 2024
我们提出了一种简单直接的方法来减小不同领域之间的差异,该方法无需进行额外的参数计算,并且可以与基于自训练的无监督领域适应方法无缝集成。通过在潜在特征空间中将目标领域的风格传递给源领域,该模型在决策过程中优先考虑目标领域的风格,在图像级别和浅层特征图级别上解决了该问题,并实现了在目标领域上出色的性能。我们的方法在合成到真实的无监督领域适应任务中取得了显著的性能提升,比如在 GTA->Cityscapes 数据集上达到了显著的 UDA 性能,mIoU 为 76.93%,比先前最先进结果改善了 1.03 个百分点。
Apr, 2024
该论文提出了使用自监督单目深度估计作为代理任务来解决模拟数据和真实数据之间的差异,以提高半监督领域自适应的性能,结果表明这种方法在语义分割领域的无监督域自适应上具有较好的性能。
Mar, 2021