自监督学习领域不变特征用于深度估计
本文介绍了一种基于自监督深度估计来缩小源域和目标域之间领域漂移的方法,该方法旨在增强目标语义预测,并使用深度预测的差异来明确像素级适应难度,进而修正目标语义分割伪标签。在 SYNTHIA-to-Cityscapes 和 GTA-to-Cityscapes 基准任务上,我们分别实现了 55.0%和 56.6%的新的最先进性能。
Apr, 2021
本文提出了一种半监督和领域自适应的语义分割框架,它利用自监督单目深度估计(SDE)来增强。该框架采用 SDE 作为辅助任务,通过选择最有用的样本、实现数据增强、转移 SDE 学习到的特征以及利用 Cross-Domain DepthMix 和 Match Geometry Sampling 来利用额外的标记合成数据与真实数据对齐,同时在 Cityscapes 数据集上进行了验证,并获得了半监督语义分割和半监督领域适应的最先进结果。
Aug, 2021
本文提出了一种多任务深度网络学习通用高级视觉表示的方法,并通过对人工制成的图像进行训练来克服真实与合成数据之间的领域差异,模型考虑同步从合成 RGB 图像中预测其表面法向、深度和实例轮廓,并最小化真实和合成数据之间特征空间的差异,在广泛实验的基础上,表明我们的网络相比单任务基线学习到更具有可转移性的表示,使得在 PASCAL VOC 2007 分类和 2012 检测上能够产生最先进的迁移学习结果。
Nov, 2017
本文提出了一种基于自编码器的无监督深度卷积神经网络学习框架,通过训练不需要预训练或注释的神经网络,为单视图深度预测提供了一种新的方法。
Mar, 2016
提出了一种无监督域适应的通用框架,利用添加额外的网络和损失函数,通过使用图像翻译框架和特征提取实现在无需目标域训练数据的情况下,测试源域训练的深度神经网络在不同的目标域上的能力,并在分类和分割任务上,应用于 MNIST、USPS、SVHN 和 Amazon、Webcam、DSLR Office 以及 GTA5 和 Cityscapes 数据集,取得了最先进的性能。
Dec, 2017
本文提出了在无监督单目深度估计中引入跨域语义信息以提高几何表示的新思路,包括度量学习方法和特征融合模块,并在 KITTI 数据集上全面评估,在弱质地区和物体边界的监督限制下,本文提出的方法优于现有技术。
Aug, 2021
本文介绍了一种无监督领域适应技术,它仅依赖于图像对,并利用经典的立体算法生成视差测量,旨在 fine-tune 立体和单眼深度架构,通过一种新颖的置信度引导损失函数来处理以测量出视差值,并且该方法不需要基础真实标签,实验证明其效果优于其他同类无监督损失函数。
Sep, 2019
本文提出了一种使用立体匹配网络作为代理从合成数据中学习深度并使用预测的立体视差图来监督单目深度估计网络的方法,并提出了不同的策略以确保学习到的深度感知能力在不同领域之间得到很好的转移。通过大量实验证明了该方法在 KITTI 数据集上具有最先进的单目深度估计结果。
Aug, 2018
本文研究自监督学习中如何直接运用语义结构来指导几何表示的学习,提出了一种新的基于预训练语义分割网络和像素自适应卷积的架构,并使用两阶段训练过程来克服动态对象上的常见语义偏差。结果表明该方法在所有像素、细节和语义类别上都优于现有方法,实现了自监督单目深度预测的最新水平。
Feb, 2020