基于 CNN 的单张图片深度估计方法评估
本论文提出了一种有效提取局部特征的方法,使用基于 CNN 的深度图像,对图像进行预处理和透视校正,以增强 SIFT 和 BRISK 特征的匹配,从而提高 3D 重新定位和多视角重建的鲁棒性。
Aug, 2020
为了解决 RGBD 相机的选用问题,该研究提出了一种用于定量测量深度质量的方法,并通过比较不同相机的性能和案例研究帮助其他系统集成商选择适合定制环境的相机。
Mar, 2019
通过在室内场景数据集中使用特征提取技术,本研究量化了单一形状、纹理、颜色和饱和度等因素对深度估计的相对贡献,发现边缘检测提取的物体形状在室内环境中的贡献显著大于其他因素,而其他特征也有不同程度的贡献。这些洞察将有助于优化深度估计模型,提高其准确性和鲁棒性,并扩大基于视觉的深度估计的实际应用。
Nov, 2023
本文提出了两种优化现有方法的方法:一种是通过网络结构融合不同尺度提取的特征,另一种是通过多种损失函数来测量训练中的推理错误。实验结果表明,这两种改进使得深度估计的精度显著提高,使得对小物体和物体边界的更细分辨率重建成为可能。
Mar, 2018
本文提出了一种用于估计一致密集深度图和相机姿态的算法,该算法基于学习的深度先验和几何优化相结合,不需要输入相机姿态,并能够在包括噪声、抖动、运动模糊和卷帘快门失真等多种挑战性条件下实现稳健的重建。
Dec, 2020
通过利用传统的运动结构恢复来建立视频中像素的几何约束,使用基于学习的先验 —— 一种单图像深度估计的卷积神经网络,我们给出了一种用于重建密集、几何一致深度的算法。测试时,我们对这个网络进行微调,以满足特定输入视频的几何约束,同时保留其在视频中的其他区域中合成可信深度细节的能力。通过定量验证,我们证明了我们的方法比以前的单目重建方法有更高的准确性和更高的几何一致性。我们的算法能够处理具有轻度动态运动的挑战性手持捕获输入视频。改进重建的质量可以用于场景重建和高级视频视觉效果。
Apr, 2020
使用深度焦点提示为基础,基于点扩散函数卷积层的无监督学习深度估计方法能在多个数据集上优于其他无监督方法和与 KITTI 和 Make3D 数据集中的监督方法效果相当,并且与数据集无关.
Jan, 2020
通过使用双目输入,引进左右一致性损失函数,并提出一种保存边缘特征的损失函数来改善测试时训练中的深度模糊问题,提出了一种稠密的双目视频深度估计方法,调研结果表明该模型精度可靠。
May, 2023
本文论述了如何通过使用 RGB-D 原始数据,采用单个深度回归网络来学习来自稀疏深度范例的密集深度估计,并研究了样本数量对预测准确性的影响,提出的算法有两个应用:转换稀疏地图为密集地图和 LiDAR 的超分辨率。
Sep, 2017