传感器无关深度估计的深度提示
本研究提出一种简单而有效的背景提示策略,利用学习到的背景适应输入的物体图像,改善现有深度估计方法难以应对多样性场景的问题,并通过缩小合成和真实对象图像之间的领域差距来实现较好的从合成到真实世界的泛化性能。
Jun, 2023
本研究利用偏振成像提高不准确的深度传感器测量,通过学习策略和神经网络预估深度图,采用 Polarization Prompt Fusion Tuning(PPFT)策略优化 RGB 模型性能,并在公开数据集上验证了优于现有深度增强方法的实验结果。
Apr, 2024
本文提出了一种新颖的方法,通过学习框架,识别和整合主导的跨模态深度特征,独立计算粗略深度图,并使用置信度损失和多模态融合网络进行端到端的深度估计,从而在各种困难情景中展示了鲁棒的深度估计能力。
Feb, 2024
通过在室内场景数据集中使用特征提取技术,本研究量化了单一形状、纹理、颜色和饱和度等因素对深度估计的相对贡献,发现边缘检测提取的物体形状在室内环境中的贡献显著大于其他因素,而其他特征也有不同程度的贡献。这些洞察将有助于优化深度估计模型,提高其准确性和鲁棒性,并扩大基于视觉的深度估计的实际应用。
Nov, 2023
该论文提出了一种新颖的地面嵌入模块,以应对单目深度估计中的相机参数与图像影像混合的问题,从而提高其在真实场景中的泛化能力,并在各个测试上取得了最先进的结果和显著的泛化改进。
Sep, 2023
本文提供了一种使用单目图像进行深度估计的方法,提供了一个大规模且多样化的数据集 Diverse Scene Depth 进行训练,学习到了不受仿射变换影响的深度信息,并通过多分支课程训练实现了对复杂场景的高质量深度恢复。
Feb, 2020
本文提出了一种统一的 CNN 框架来规范化深度完成,通过模拟深度与表面法线之间的几何约束,预测稀疏 LiDAR 输入的置信度,以隔离噪声的影响,以实现从稀疏深度图恢复密集深度图的目标,我们在 KITTI 深度完成数据集和 NYU-Depth-V2 数据集上进行了大量实验,证明了我们的方法达到了最先进的性能。
Oct, 2019
本文论述了如何通过使用 RGB-D 原始数据,采用单个深度回归网络来学习来自稀疏深度范例的密集深度估计,并研究了样本数量对预测准确性的影响,提出的算法有两个应用:转换稀疏地图为密集地图和 LiDAR 的超分辨率。
Sep, 2017
基于物理驱动的深度学习框架用于单目深度估计,通过假设 3D 场景由分段平面组成,提出了一种新的正常 - 距离头来推导每个位置的深度,同时,通过开发的面感知一致性约束对正常和距离进行规范化,并引入了额外的深度头来改善框架的鲁棒性,利用有效的对比迭代细化模块根据深度的不确定性互补地对深度进行精细化改进,实验证明该方法在 NYU-Depth-v2、KITTI 和 SUN RGB-D 数据集上超过了现有的最先进竞争方法,值得注意的是,它在 KITTI 深度预测在线基准测试中的提交时间中排名第一。
Sep, 2023