OGNI-DC:通过优化引导的神经迭代实现鲁棒深度补全
本文提出了一种统一的 CNN 框架来规范化深度完成,通过模拟深度与表面法线之间的几何约束,预测稀疏 LiDAR 输入的置信度,以隔离噪声的影响,以实现从稀疏深度图恢复密集深度图的目标,我们在 KITTI 深度完成数据集和 NYU-Depth-V2 数据集上进行了大量实验,证明了我们的方法达到了最先进的性能。
Oct, 2019
通过引入高效的重复设计和卷积分解技术,我们提出了一种图像引导的网络方法,有效地从稀疏图像中逐步恢复出密集的深度图,实验结果在多个数据集上都达到了优秀的效果。
Sep, 2023
本研究提出了一种基于图像引导的神经网络,在处理深度不完整的情况下,通过引入重复设计和小时 glass 网络和动态卷积技术,提高了深度预测精度,在 KITTI 基准测试和 NYUv2 数据集上均取得了优越或有竞争力的结果。
Jul, 2021
本研究提出了一种新颖的实时伪深度引导深度补全神经网络 DenseLiDAR,利用形态操作得到的稠密伪深度图在三个方面指导网络,取得了最先进的性能,并在 KITTI 3D 对象检测数据集上实现了 3-5%的性能提升,这说明了深度完成结果可以用于改善相关下游任务的潜力。
Aug, 2021
本文提出 3dDepthNet,采用新颖的 3D-to-2D 粗 - 细双重加密设计,通过点云补全和编码解码结构完成深度图像的生成,旨在用于机器人和自动驾驶等领域,实验表明其有效性和高效性。
Mar, 2020
本文提出了一种基于图像引导的深度完成任务的融合方法,该方法利用了颜色模态和深度模态,采用双分支骨干网络融合不同的模态,并结合几何卷积编码 3D 几何信息,进而在 KITTI 深度完成在线排行榜中取得了第一名的成绩。
Mar, 2021
深度补全是自动驾驶中关键的任务之一,旨在将稀疏的深度图转化为密集的深度预测。通过基于 RGB 图像的融合,我们提出了一种简洁而有效的网络结构 CENet,实现了高性能深度补全,具有优秀的准确性和效率。
Jan, 2024
基于激光雷达测量数据和相机图像,本研究提出了一种深度补全算法,通过插值和填充稀疏深度值来提高深度图像的分辨率,并使用时间算法从以往时间步中获取信息利用循环神经网络的方式来修改 PENet 方法,实现了对 KITTI 深度补全数据集的最新成果,相较于原有的神经网络参数和浮点运算仅增加不到 1% 的额外开销,尤其在远处物体和包含少量激光深度样本的区域中准确性得到了显著提高,甚至在没有任何地面真实数据的区域(如天空和屋顶)也观察到了巨大的改进,而这些改进并未被现有的评估指标所捕捉到。
Jun, 2024
本文提出了一种基于深度信息补全技术,使用 RGB 图像和不完整的深度图像进行输入,设计了一种新的两支分支端对端融合网络,其中一个支路使用编码器 - 解码器结构从原始深度图中对局部密集深度值进行回归,另一个分支提出了一种 RGB 深度融合 GAN,通过自适应融合模块和置信度融合头来融合这两个分支的输出,从而实现了对室内环境中丢失深度数据的精确补全。
Mar, 2022
使用 RDFC-GAN 模型基于 Manhattan world 假设将 RGB-D 信息转换为具有高纹理的深度图,并通过自适应融合模块 W-AdaIN 和 confidence fusion head 来解决室内深度图中大量连续缺失数据的深度完成问题。
Jun, 2023