学习透明与镜面表面的深度估计
本文提出了一种使用立体匹配网络作为代理从合成数据中学习深度并使用预测的立体视差图来监督单目深度估计网络的方法,并提出了不同的策略以确保学习到的深度感知能力在不同领域之间得到很好的转移。通过大量实验证明了该方法在 KITTI 数据集上具有最先进的单目深度估计结果。
Aug, 2018
本文提出了一种使用自监督立体匹配方法生成的伪真实深度地图来辅助单目深度估计的新方法,并利用门限网络调整伪深度图。通过基于像素自适应卷积层提高单目深度估计精度,并取得了优异的实验结果。
Sep, 2020
通过使用触觉反馈的探测系统自动收集稀疏深度标签并对立体网络进行微调,结合触觉深度监督和基于置信度的正则化以优化深度感知,特别是对于透明物体而言,在真实世界中显著提高了深度感知的准确性。
Sep, 2023
本研究提出一种基于卷积神经网络的单张图像深度估计方法,使用更容易获取的双目立体视觉图像替代需要大量对应地面真实深度数据的监督式回归训练,通过利用同一场景下两个视点的对极约束,生成视差图,并利用一种新的训练目标函数,结合左右两张图像的视差图像互相匹配和校准,提高了深度估计的性能表现,从而实现了在 KITTI 数据集上的单张图像深度估计的最新领先水平,甚至超过了基于真实深度训练的监督式方法。
Sep, 2016
基于物理驱动的深度学习框架用于单目深度估计,通过假设 3D 场景由分段平面组成,提出了一种新的正常 - 距离头来推导每个位置的深度,同时,通过开发的面感知一致性约束对正常和距离进行规范化,并引入了额外的深度头来改善框架的鲁棒性,利用有效的对比迭代细化模块根据深度的不确定性互补地对深度进行精细化改进,实验证明该方法在 NYU-Depth-v2、KITTI 和 SUN RGB-D 数据集上超过了现有的最先进竞争方法,值得注意的是,它在 KITTI 深度预测在线基准测试中的提交时间中排名第一。
Sep, 2023
360 度图像的深度估计是虚拟现实、自主导航和沉浸式媒体应用中至关重要的,本研究提出了一种使用未标记 360 度数据的深度估计框架,通过六面立方体投影技术生成伪标签来高效标注 360 度图像的深度,并在深度估计的准确度上展示了显著改进,特别是在零样本情况下。
Jun, 2024
本文提出了一种基于深度学习的透明物体抠图方法,将透明物体抠图问题作为一种折射流估计问题进行建模,并借助 TOM-Net 框架提出了一种快速、精确的抠图方法。通过构建合成数据集和真实数据集测试表明了该方法的有效性。
Mar, 2018
我们提出了一种透明物体深度补全的端到端网络,结合了基于单视图 RGB-D 的深度补全和多视图深度估计的优点,并引入了基于置信度估计的深度细化模块,进一步改进了恢复的深度图。在 ClearPose 和 TransCG 数据集上进行的大量实验证明,与现有方法相比,我们的方法在具有显著遮挡的复杂场景中实现了更高的准确性和鲁棒性。
May, 2024