基于特征融合的粗到细残差学习用于深度补全的 FCFR-Net
本文提出了一种统一的 CNN 框架来规范化深度完成,通过模拟深度与表面法线之间的几何约束,预测稀疏 LiDAR 输入的置信度,以隔离噪声的影响,以实现从稀疏深度图恢复密集深度图的目标,我们在 KITTI 深度完成数据集和 NYU-Depth-V2 数据集上进行了大量实验,证明了我们的方法达到了最先进的性能。
Oct, 2019
本文提出了一种基于图像引导的深度完成任务的融合方法,该方法利用了颜色模态和深度模态,采用双分支骨干网络融合不同的模态,并结合几何卷积编码 3D 几何信息,进而在 KITTI 深度完成在线排行榜中取得了第一名的成绩。
Mar, 2021
本文提出了一种卷积神经网络,它可以基于高分辨率强度图像得出上采样一系列稀疏范围测量的上下文线索,并且在网络中分离、融合两种模态的上下文线索,旨在利用两种模态之间的关系来产生准确的结果,同时尊重显著的图像结构。通过实验结果表明,该方法与当前最先进的方法相媲美,并可在多个数据集上进行有效泛化。
Feb, 2019
本文提出了一种轻量的深度完成网络,包括两个分支全局和局部深度预测模块和漏斗卷积空间传播网络,通过轻量级骨干提取和融合交叉模式特征,改进了空间传播模块可以逐步改善修饰后的深度图,解决了 RGB 图像引导的稀疏深度完成问题,通过修正的梯度损失解决了深度完成问题,并在 MIPI2022 RGB + TOF 深度完成挑战中获得了冠军。
Aug, 2022
本文提出了一种基于深度信息补全技术,使用 RGB 图像和不完整的深度图像进行输入,设计了一种新的两支分支端对端融合网络,其中一个支路使用编码器 - 解码器结构从原始深度图中对局部密集深度值进行回归,另一个分支提出了一种 RGB 深度融合 GAN,通过自适应融合模块和置信度融合头来融合这两个分支的输出,从而实现了对室内环境中丢失深度数据的精确补全。
Mar, 2022
本文提出 3dDepthNet,采用新颖的 3D-to-2D 粗 - 细双重加密设计,通过点云补全和编码解码结构完成深度图像的生成,旨在用于机器人和自动驾驶等领域,实验表明其有效性和高效性。
Mar, 2020
深度补全是自动驾驶中关键的任务之一,旨在将稀疏的深度图转化为密集的深度预测。通过基于 RGB 图像的融合,我们提出了一种简洁而有效的网络结构 CENet,实现了高性能深度补全,具有优秀的准确性和效率。
Jan, 2024
本研究提出了一种轻量级的三维密集预测任务算法 ——Dimensional Decomposition Residual network (DDR),该网络使用分解卷积层和多尺度融合机制来提高三维场景补全和语义分割速度和准确率,与最新的同类型算法 SSCNet 相比,我们只使用了 SSCNet 网络参数的 21%,计算量的 16.6%,但在 SC-IoU 和 SSC-IoU 上分别提升了 5.9% 和 5.7%。
Mar, 2019
使用 RDFC-GAN 模型基于 Manhattan world 假设将 RGB-D 信息转换为具有高纹理的深度图,并通过自适应融合模块 W-AdaIN 和 confidence fusion head 来解决室内深度图中大量连续缺失数据的深度完成问题。
Jun, 2023