稀疏到密集:从稀疏深度样本和单幅图像中预测深度
本研究提出了一种深度模型,能在极少的像素点处获得 RGB 图像的已知深度情况下,精确地生成密集深度图,并能在 NYUv2 和 KITTI 数据集上实现近乎实时速度的室内 / 室外场景的高质量深度点云。与其他稀疏到密集深度方法相比,在每~10000 个像素中仅有一个像素的情况下,我们的深度估计准确度比现有最新算法还要高,仅在图像 1/256 的像素上估计,我们的精度就相当于消费级深度传感器的性能,本研究说明了将稀疏深度测量(如低功率深度传感器或 SLAM 系统获得)高效地转换成高质量的密集深度图是完全可能的。
Apr, 2018
研究了如何从单个 RGB 图像中预测密集深度,并引入了新的 Sparse Auxiliary Networks 模块来同时执行深度预测和补全任务。在室内和室外数据集上的实验结果表明,该模块能够同时学习两个任务,并在深度预测方面取得重大进展。
Mar, 2021
本研究提出了针对稀疏深度图的深度补全方法,采用深度回归学习模型,通过自监督训练框架实现对稀疏深度图的快速、精准深度补全,实验结果表明本方法在 KITTI 深度补全基准测试中获得了最佳结果。
Jul, 2018
本文提出了一种新的方法,利用两个深度网络堆栈来解决单张图像深度估计的问题,并应用尺度不变误差来测量深度关系,通过利用原始数据集作为大量训练数据,方法在 NYU Depth 和 KITTI 上实现了最先进的结果。
Jun, 2014
提出了一种新的方法,利用 RGB 图像指导生成稀疏的 LiDAR 地图的精确深度预测,通过融合 RGB 图像引导可以提高深度预测的准确性。该方法的实现在 KITTI 深度完成基准测试中得到了最佳成绩。
Feb, 2019
使用深度焦点提示为基础,基于点扩散函数卷积层的无监督学习深度估计方法能在多个数据集上优于其他无监督方法和与 KITTI 和 Make3D 数据集中的监督方法效果相当,并且与数据集无关.
Jan, 2020
本文提出 3dDepthNet,采用新颖的 3D-to-2D 粗 - 细双重加密设计,通过点云补全和编码解码结构完成深度图像的生成,旨在用于机器人和自动驾驶等领域,实验表明其有效性和高效性。
Mar, 2020
本文提出了一个深度神经网络架构,通过从单个彩色图像和稀疏深度产生准确的密集深度,实现了室外场景的景深感知。该网络以表面法向量为中间表示来产生密集深度,并可进行端到端的训练。利用修改后的编解码器结构,该网络有效地融合了密集的彩色图像和稀疏的 LiDAR 深度。
Dec, 2018
通过利用深度单目深度预测来改进单目视觉里程计,利用直接虚拟立体测量方法将深度预测与 Direct Sparse Odometry(DSO)相结合,关键考虑半监督学习,并在 KITTI 基准测试中超越其他的方法,实现了与基于立体相机的方法相当的性能。
Jul, 2018