多模态神经辐射场对于带有轻量化 ToF 传感器的单目密集 SLAM
本研究提出了一种基于连续波 ToF 相机的神经表征模型,改进了动态场景的重建质量及鲁棒性,讨论了将 RGB+ToF 传感器集成到现代智能手机上的益处和局限性。
Sep, 2021
本文提出了一种轻量的深度完成网络,包括两个分支全局和局部深度预测模块和漏斗卷积空间传播网络,通过轻量级骨干提取和融合交叉模式特征,改进了空间传播模块可以逐步改善修饰后的深度图,解决了 RGB 图像引导的稀疏深度完成问题,通过修正的梯度损失解决了深度完成问题,并在 MIPI2022 RGB + TOF 深度完成挑战中获得了冠军。
Aug, 2022
提出了一种新的基于几何和光学的三维地图制图方法,利用稠密单目 SLAM 和实时分层体积神经辐射场技术,通过提供估计准确的位姿和深度图的相关不确定性,实时适应神经辐射场的场景。通过采用提出的基于不确定性的深度损失,实现了良好光学和几何精度,在实时和单目成像的情况下比竞争方法更精确 (最高提高 179% 的 PSNR 和 86% 的 L1 深度)。
Oct, 2022
本文提出了一种基于深度学习的框架,用于对移动 RGB 相机配备的飞行时间(ToF)传感器进行在线校准和对齐以及复杂误差校正。通过将 RGB 图像和 ToF 幅度图之间进行交叉模态光流估计以进行对齐,并通过一个改进的内核预测网络直接回归时间飞行深度进行深度精修。通过计算机图形学的方法,我们还合成了一个数据集,为数据的端到端训练提供更多丰富的信息。实验结果表明,本文提出的方法在 ToF 精修方面取得了最先进的效果。
Sep, 2019
本篇论文提出了一种计算模型,将激光飞行时间相机的形状、照明和反照率推断联系起来,并通过有效的非参数回归树近似模型输出,为每个像素提供深度、等效反照率和环境光强度的估计和不确定性。同时,通过拓展单路径模型为双路径模型,无需额外计算成本即可描述多径效应。
Jul, 2015
提出一种名为 DELTAR 的方法,通过结合彩色图像,使轻量级飞行时间(ToF)深度传感器具有测量高分辨率和准确深度的能力。
Sep, 2022
通过 TOF - 立体相机配对的数据融合方法,提出了一种通过种子生长算法和 Bayesian 模型相结合的方法,以更高的分辨率提供精确的深度图,用于导航和其他机器人应用。
Jul, 2021
本文探讨了间接飞行时间(iToF)相机等深度感知技术,提出一种名为 iToF2dToF 的方法,通过插值 / 外推 iToF 频率来估计瞬态图像,并演示其在实际深度感知场景中的优势。
Mar, 2021
该研究论文利用学习到的紧凑深度图表示和重构三种不同类型的误差,将光度误差,重投影误差和几何误差应用于标准因子图软件中,将不同的方法统一到概率框架中,实现实时性能的同时对现实世界序列的轨迹估计和深度重建进行评估,并呈现了估计的丰富几何示例。
Jan, 2020