本研究通过详细描述检测的域适应问题并对各种方法进行广泛概述,强调提出的策略及其相关的缺点,为未来的研究提供有前途的问题,并向计算机视觉、生物计算、医学影像和自主导航等领域的模式识别专家介绍了当前进展的现状。
May, 2021
本文提出了一种无监督领域自适应方法(UDA-COPE)来实现基于类别的物体姿态估计,不需要使用目标域的姿态标签,而是使用一种带有学生 - 教师自监督学习框架的姿态估计网络进行训练,并在预测出来的归一化物体坐标空间地图和真实点云之间介绍了一个双向过滤器来提供给学生网络训练更可靠的伪标签,实验结果表明,该算法在不使用目标域 GT 标签的情况下,可以达到与基于 GT 标签的现有方法相当甚至更好的表现。
Nov, 2021
本研究提出了基于弱监督对抗领域适应的方法,通过三个深度神经网络(DS、PDC 和 ODC)改善从合成数据到真实场景的语义分割性能,并在实验中取得了新的记录。
Apr, 2019
本文提出了两种方法,自我监督和节俭学习,并将它们应用于追踪隐蔽对象的任务,实验结果表明,通过自我监督方法可以实现与完全监督的节俭学习相似的性能。
Jun, 2024
最近,大规模视觉语言模型(VLM)的出现,如 CLIP,为开放世界的物体感知打开了道路。我们提出了一个新的任务,开放词汇伪装的物体分割(OVCOS),并构建了一个包含 11,483 个精选图像和细粒度注释的大规模复杂场景数据集(OVCamo)。通过集成类别语义知识的指导和依赖边缘和深度信息的视觉结构线索的补充,所提出的方法可以有效地捕捉伪装对象。此外,这个有效的框架在我们的 OVCamo 数据集上也超过了先前状态 - of-the-art 的开放词汇语义图像分割方法。借助提出的数据集和基线,我们希望这个具有更多实际价值的新任务能进一步扩展开放词汇密集预测任务的研究。
Nov, 2023
本文提出了一种自我监督域自适应的通用方法,重点关注简单的预训练任务,如图像旋转预测,运用于对象识别和城市场景语义分割等场景,并提出了预测层对齐和批归一化校准等策略以进一步提高其准确性。实验结果表明自我监督在域自适应方面具有很大的潜力。
Jul, 2019
本文研究无监督领域自适应,提出了一种将源域和目标域之间的表示进行对齐的方法,从而使目标域数据的分类准确性更高。该方法利用自监督任务对两个域进行训练并成功地泛化到目标域。在实验中,我们获得了四个标准基准测试中的最先进结果,并在分割适应性方面取得了有竞争力的结果。
Sep, 2019
本文提出了无源开放复合领域自适应的新概念,并在语义分割中进行研究,应用自监督学习的方法,通过 Cross-Patch Style Swap 框架解决了训练一般性源模型和自适应目标模型的问题,从而在目标和开放领域上实现了最先进的结果。
Jun, 2021
本文提出了一种基于 Cycle Consistency Panoptic Domain Adaptive Mask R-CNN 架构的无监督核分割方法,该方法利用荧光显微镜图像进行学习,并引入对源域的偏置特征的动态修正机制,以实现跨数据集的域适应,实验结果表明,该方法在三个数据集上优于最先进的无监督域自适应方法,同时表现出类似于完全监督方法的性能。
May, 2020
本文提出了一种基于迭代自训练的无监督域自适应框架,在自训练的基础上提出了一种新的类平衡自训练框架,并引入了空间先验来改善生成的标签。综合实验表明,所提出的方法在多个主要 UDA 设置下均实现了最先进的语义分割性能。
Oct, 2018