基于 TOF-Stereo 融合的高分辨深度图
本文提出了一种新的基于学习的端到端深度预测网络,该网络采用多步方法对噪声原始 I-ToF 信号以及 RGB 图像进行融合,以预测与 RGB 视点对齐的高质量远程深度图。在挑战性的现实场景中测试我们的方法,与基线方法相比,最终深度图的 RMSE 提高了 40% 以上。
Dec, 2021
本文采用最大后验概率方法将低分辨率深度数据与高分辨率立体数据相结合,通过层次求解一系列局部能量最小化问题来产生深度图。通过新的相关函数、自适应成本聚合步骤以及基于场景纹理和摄像机几何的自适应融合方法,提出了一种精度更高的种子生长方法,避免了传播错误视差的倾向。该方法是高效的,可在标准台式计算机上以 3 FPS 的速度运行,并通过与现有方法的定量比较和实际深度 - 立体数据集的定性比较,证明了其强大的性能。
Dec, 2020
本研究提出了一种深度估计方法,利用来自双目立体视觉和稀疏激光雷达或深度相机的测量信息。通过融合各传感器的优势,即精确但稀疏的测量信息和模糊但密集的立体信息,并采用各向异性扩散和半全局匹配技术进行有效地融合。该方法在 KITTI 2015 和 Middlebury 2014 数据集上评估,表现显著,而且使用 PMDTec Monstar 传感器提供了定量结果。
Sep, 2018
本文提出了一种基于深度学习的框架,用于对移动 RGB 相机配备的飞行时间(ToF)传感器进行在线校准和对齐以及复杂误差校正。通过将 RGB 图像和 ToF 幅度图之间进行交叉模态光流估计以进行对齐,并通过一个改进的内核预测网络直接回归时间飞行深度进行深度精修。通过计算机图形学的方法,我们还合成了一个数据集,为数据的端到端训练提供更多丰富的信息。实验结果表明,本文提出的方法在 ToF 精修方面取得了最先进的效果。
Sep, 2019
本研究使用红外和深度图像进行语义分割,通过多任务学习框架以深度特定卷积融合来自单个 ToF 相机的 IR 和深度模态,在汽车分割数据集上,我们展示了我们的方法与更昂贵的 RGB-D 方法的竞争力。
Jun, 2023
通过使用轻量级 ToF 传感器的信号,结合多模式隐式场景表示、粗糙到精细的优化策略和时间信息处理,该研究提出了一种用于相机追踪和稠密场景重建的稀疏光准测距技术,取得了良好的结果。
Aug, 2023
提出一种名为 DELTAR 的方法,通过结合彩色图像,使轻量级飞行时间(ToF)深度传感器具有测量高分辨率和准确深度的能力。
Sep, 2022
本文全面回顾了与 RGB 引导的 ToF 图像相关的工作,包括网络结构、学习策略、评估指标、基准数据集和目标函数,并在广泛使用的基准数据集上对最先进的方法进行定量比较。最后,我们讨论了未来的趋势和进一步研究中的实际应用挑战。
May, 2024
该研究报告介绍了 RGB 图像和稀疏飞行时间(ToF)测量的深度完成竞赛的结果,比较了不同方法的准确性以及深度学习在该领域的应用。
Apr, 2023