单个 RGB-D 图像的深度完备化
本文提出了一种基于深度信息补全技术,使用 RGB 图像和不完整的深度图像进行输入,设计了一种新的两支分支端对端融合网络,其中一个支路使用编码器 - 解码器结构从原始深度图中对局部密集深度值进行回归,另一个分支提出了一种 RGB 深度融合 GAN,通过自适应融合模块和置信度融合头来融合这两个分支的输出,从而实现了对室内环境中丢失深度数据的精确补全。
Mar, 2022
本文提出了一种基于局部隐式神经表示的方法,使用射线 - 体素对捕获透明物体的深度信息,并在缺失深度数据的情况下,利用迭代式自我纠正模型和大规模合成数据集进一步完善估计,实验结果表明,这种方法在合成和真实数据上均比现有的最佳方法 ClearGrasp 表现显著优越,并将推理速度提高了 20 倍。
Apr, 2021
使用 RDFC-GAN 模型基于 Manhattan world 假设将 RGB-D 信息转换为具有高纹理的深度图,并通过自适应融合模块 W-AdaIN 和 confidence fusion head 来解决室内深度图中大量连续缺失数据的深度完成问题。
Jun, 2023
通过假设 3D 场景由分段平面组成,本文提出了针对单目深度估计和补全任务的新型物理(几何)推动深度学习框架。我们通过估计表面法线和平面到原点的距离图或补全稀疏表面法线和距离图作为中间输出,提出了一个法线 - 距离模块。同时,通过开发出平面感知一致性约束来规范化表面法线和距离图,并将其转换为深度图。此外,还集成了一个额外的深度模块来增强所提出框架的鲁棒性。在 NYU-Depth-v2、KITTI 和 SUN RGB-D 数据集上的大量实验表明,我们的方法在单目深度估计和补全任务方面胜过了先前的最先进竞争方法。
Nov, 2023
本文提出了一种统一的 CNN 框架来规范化深度完成,通过模拟深度与表面法线之间的几何约束,预测稀疏 LiDAR 输入的置信度,以隔离噪声的影响,以实现从稀疏深度图恢复密集深度图的目标,我们在 KITTI 深度完成数据集和 NYU-Depth-V2 数据集上进行了大量实验,证明了我们的方法达到了最先进的性能。
Oct, 2019
本文论述了如何通过使用 RGB-D 原始数据,采用单个深度回归网络来学习来自稀疏深度范例的密集深度估计,并研究了样本数量对预测准确性的影响,提出的算法有两个应用:转换稀疏地图为密集地图和 LiDAR 的超分辨率。
Sep, 2017
本文提出 3dDepthNet,采用新颖的 3D-to-2D 粗 - 细双重加密设计,通过点云补全和编码解码结构完成深度图像的生成,旨在用于机器人和自动驾驶等领域,实验表明其有效性和高效性。
Mar, 2020
提出了一种新的方法,利用 RGB 图像指导生成稀疏的 LiDAR 地图的精确深度预测,通过融合 RGB 图像引导可以提高深度预测的准确性。该方法的实现在 KITTI 深度完成基准测试中得到了最佳成绩。
Feb, 2019
基于 Transformer 的双步骤网络用于室内深度完成,采用自监督预训练编码器学习有效的潜在表示来填补缺失的深度值,并基于令牌融合机制从 RGB 和不完整的深度图像中完成室内深度重建。
Jun, 2024