本研究提出一种基于卷积神经网络的单张图像深度估计方法,使用更容易获取的双目立体视觉图像替代需要大量对应地面真实深度数据的监督式回归训练,通过利用同一场景下两个视点的对极约束,生成视差图,并利用一种新的训练目标函数,结合左右两张图像的视差图像互相匹配和校准,提高了深度估计的性能表现,从而实现了在 KITTI 数据集上的单张图像深度估计的最新领先水平,甚至超过了基于真实深度训练的监督式方法。
Sep, 2016
本文提出了一种基于对抗学习框架的无监督深度学习方法,用于预测深度图,通过学习预测校准立体相机设置下两个图像视图之间的对应场,提出了一个有两个生成子网络的架构,它们通过对抗训练共同用于重建视差图并相互约束和监督。实验结果表明,该模型可以有效地解决深度估计任务。
Jul, 2018
该论文提出了一种可以使用无标注数据进行训练的,基于三目摄像机的深度估计方法,其在 KITTI 数据集上取得了比其他基于双目摄像机以及其他线索的方法更好的性能。
Aug, 2018
本文提出了一种半监督对抗学习框架来解决当仅有有限数量的训练图像 - 深度对时,单目深度估计的问题,并在 NYUD v2 数据集上改进了大部分最先进的模型。
Aug, 2019
本研究提出一种方法,利用单眼光度一致性为唯一的监督,联合训练深度、自我运动估计和物体相对于场景的稠密三维平移场的估计,通过已知 3D 平移场的稀疏性和对于刚性移动物体的恒定性进行正则化,有效提高了单眼深度预测模型的准确性。
Oct, 2020
使用基于学生 - 教师策略、数据集成和立体信心引导回归损失的方法,可以提高单目深度估计的精度,并用于高级视觉任务,如室外场景的驾驶情境等。
Apr, 2019
提出了一种基于自监督深层模型的新型单目深度估计框架,其中包括通过反向循环模型进行的深度估计网络优化、信息蒸馏等策略。此框架在 KITTI 基准测试中表现出良好的性能,胜过了目前的非监督方法。
Mar, 2019
本文介绍了一种无监督领域适应技术,它仅依赖于图像对,并利用经典的立体算法生成视差测量,旨在 fine-tune 立体和单眼深度架构,通过一种新颖的置信度引导损失函数来处理以测量出视差值,并且该方法不需要基础真实标签,实验证明其效果优于其他同类无监督损失函数。
Sep, 2019
通过语义监督训练单张图像深度预测模型,进一步应用 LiDAR 导出的深度图纠正误差,提出了具有左右一致性损失函数的深度神经网络,着重于强调半监督训练方法的重要性和正确使用 LiDAR 测量数据的技术。
May, 2019
该研究针对单目深度估计的自监督学习方法,在不需要昂贵激光扫描或其他基础数据的情况下,使用 Depth Hints 通过加入来自简单立体算法的参考感知补充了光度学重投影代价函数,从而提高训练深度估计网络时的深度预测精度,该方法取得了在 KITTI 数据集上的最优预测效果。