PCDepth: 基于模式的单目深度估计的互补学习方法
通过增加全局深度线索和利用多个深度线索之间的几何关系,提出的方法可以提高单眼三维对象检测的深度补充性,实现了最新性能并无需引入额外数据。
Apr, 2024
本文介绍了事件相机及其与传统图像传感器的区别,讨论了基于学习的方法如何应用于事件数据,提出了使用循环架构来预测单眼深度的新方法,并在 CARLA 模拟器数据集上进行了预训练并在 MVSEC 上进行了测试,结果表明平均深度误差减小了 50%。
Oct, 2020
提出了一种自我监督的基于事件感知的单目深度估计框架 EMoDepth,利用来自与像素坐标中的事件对齐的强度帧的跨模态一致性约束训练过程,并且在推理中仅使用事件进行单目深度预测,同时设计了多尺度跳跃连接架构以有效融合用于深度估计的特征,并保持高推理速度。在 MVSEC 和 DSEC 数据集上的实验证明了方法的有效性,并且精度能够超过现有的有监督基于事件感知和无监督基于帧的方法。
Jan, 2024
本文提出了一种使用多模式相机组合极化、ToF 和结构光信号的深度预测方法,该方法使用可微的分析模型将场景几何与极化和 ToF 等信号连接起来,实现自监督和跨模态学习,在自定义的 CroMo 数据集上获得了优异的性能表现。
Mar, 2022
通过三个创新点,本研究提出了一个名为 DCPI-Depth 的框架,该框架采用稠密对应先验,通过上下文信息和光流进行深度感知,实现了在具有挑战性场景中的准确深度估计,并展示了更合理的平滑性。
May, 2024
本文提出了一种新颖的方法,通过学习框架,识别和整合主导的跨模态深度特征,独立计算粗略深度图,并使用置信度损失和多模态融合网络进行端到端的深度估计,从而在各种困难情景中展示了鲁棒的深度估计能力。
Feb, 2024
我们提出了一种在不同光照条件下进行深度估计的方法,该方法通过多传感器融合的方式解决了低照度区域光度学信息不足的问题。我们的方法利用丰富的合成数据首先近似了三维场景结构,并通过学习从稀疏到(粗糙的)密集深度图的映射及其预测不确定性来引导深度的精修,从而提高了稀疏深度处理的效果。我们在 nuScenes 数据集上展示了该方法在不同场景中的改进表现。
May, 2024
本文提出了一种称为 M {^3} PT 的简单而有效的方法,用于 360 度深度图像补全,使用 multi-modal masked pre-training 实现,从而在三个 360 度数据集上取得了显著的改进。
Mar, 2022
本研究提出了 EDFF 网络来估计基于事件相机的稀疏深度,通过利用事件体素网格对强度变化信息进行编码,并将事件时间表面投影到深度领域中以保留每个像素的焦距信息。同时,提出了基于焦距的跨模态注意力模块和多级深度融合块,用于融合上述信息和生成最终输出,通过大量实验证明了我们的方法优于现有最先进的方法。
May, 2024