本文提出了一种可变形空间传播网络,用于适应性地为每个像素生成不同的感受野和密合矩阵,从而更准确地从稀疏深度测量中恢复密集的深度地图,KITTI 深度完成基准实验结果表明我们提出的方法达到了最先进的性能。
Jul, 2020
该研究论文设计了一种基于引导网络和卷积分解的多模态特征融合方法,旨在实现在自动驾驶等机器人应用中高精度的深度图像恢复。该方法针对现代 LiDAR 传感器只能提供稀疏深度测量的问题,通过使用同步引导 RGB 图像,并从引导图像中预测核权重,以此来提取深度图像特征,该方法能够高效准确地处理深度数据恢复,具有很高的实用价值和应用前景。
Aug, 2019
通过学习稀疏且空间变异的卷积核,我们提出了一种新的 CNN 体系结构和实现方式(DKN),用于将高分辨率彩色图像转换为相应的低分辨率深度图。我们还提出了 FDKN 的快速版本,它在标准基准测试上明显优于现有方法。
Mar, 2019
本研究提出了一种图像引导深度补全的方法,利用深度学习的技术和经典的优化算法,将常见深度补全网络中的最后一层 $1 imes 1$ 卷积替换成最小二乘拟合模块,将隐式深度基于给定的稀疏深度测量进行权重计算,同时我们还将该方法自然地推广到多尺度形式以提高自监督训练的性能,在多个数据集上的实验证实相比基准方法,本方法能够在小型计算量的情况下实现良好性能。
Dec, 2019
该研究提出了可变形 2.5D 卷积算子,以学习沿深度轴的感受野,可以有效地进行 RGB-D 语义分割,并具有很好的泛化能力。
该研究提出了一种基于编码器 - 解码器架构的新型深度完成模型,利用重新定位输出信号内的空间分布,实现根据不同地区的控制,通过 Spatially-Adaptive Denormalization(SPADE)块来控制特定区域的密集度 map 解码,有效提高模型预测质量,主要贡献包含了编码器 - 解码器架构之外的特定部分设计和新颖的训练策略。
May, 2020
本文提出了一种变形 3D 卷积网络(D3Dnet)来融合来自空间和时间维度的时空信息进行视频超分辨率, 采用变形卷积与 3D 卷积相结合的方法,具有更好的时空建模能力和运动感知建模灵活性, 实验结果表明 D3D 在开发时空信息方面非常有效。
Apr, 2020
提出了一种渐进的深度解耦和调制网络,通过将深度范围分解为多个范围,并自适应地生成多尺度稠密深度图,以解决现有深度离散化方法在不同场景中受深度分布变化影响导致子优化场景深度分布先验的问题。
May, 2024
本文提出了一种基于图像引导的深度完成任务的融合方法,该方法利用了颜色模态和深度模态,采用双分支骨干网络融合不同的模态,并结合几何卷积编码 3D 几何信息,进而在 KITTI 深度完成在线排行榜中取得了第一名的成绩。
Mar, 2021
本文提出了一种轻量的深度完成网络,包括两个分支全局和局部深度预测模块和漏斗卷积空间传播网络,通过轻量级骨干提取和融合交叉模式特征,改进了空间传播模块可以逐步改善修饰后的深度图,解决了 RGB 图像引导的稀疏深度完成问题,通过修正的梯度损失解决了深度完成问题,并在 MIPI2022 RGB + TOF 深度完成挑战中获得了冠军。
Aug, 2022