RADU: 面向飞行时间 ToF 数据降噪的射线对齐深度更新卷积操作
本文基于卷积神经网络和自编码器的方法,提出了不需要对相机进行修改即可校正多径干扰导致深度估计误差的技术,并通过大量数据的训练和模拟实验验证了该方法的可行性。
May, 2018
本文探讨了间接飞行时间(iToF)相机等深度感知技术,提出一种名为 iToF2dToF 的方法,通过插值 / 外推 iToF 频率来估计瞬态图像,并演示其在实际深度感知场景中的优势。
Mar, 2021
本文提出了一种基于深度学习的框架,用于对移动 RGB 相机配备的飞行时间(ToF)传感器进行在线校准和对齐以及复杂误差校正。通过将 RGB 图像和 ToF 幅度图之间进行交叉模态光流估计以进行对齐,并通过一个改进的内核预测网络直接回归时间飞行深度进行深度精修。通过计算机图形学的方法,我们还合成了一个数据集,为数据的端到端训练提供更多丰富的信息。实验结果表明,本文提出的方法在 ToF 精修方面取得了最先进的效果。
Sep, 2019
本研究提出了一种基于连续波 ToF 相机的神经表征模型,改进了动态场景的重建质量及鲁棒性,讨论了将 RGB+ToF 传感器集成到现代智能手机上的益处和局限性。
Sep, 2021
本文提出了一种新的基于学习的端到端深度预测网络,该网络采用多步方法对噪声原始 I-ToF 信号以及 RGB 图像进行融合,以预测与 RGB 视点对齐的高质量远程深度图。在挑战性的现实场景中测试我们的方法,与基线方法相比,最终深度图的 RMSE 提高了 40% 以上。
Dec, 2021
利用现代超分辨率技术,本研究提出了一种可靠且精确的 ToF 检测方法,通过结合超分辨率和高效的残差收缩块,平衡了精细信号细节和大尺度上下文信息,并对 ToF 进行了与六种先进方法的基准比较,结果显示了我们提出的 StofNet 在精度、可靠性和模型复杂性方面的卓越性能。
Aug, 2023
本研究提出了一种基于双阶段深度学习方法的时间飞行拍摄摄像机深度重建方法以减少人工成像过程中的各种噪点等瑕疵,并介绍了 FLAT 数据集,通过实验在模拟和真实数据上证明了该方法的重建精度显著优于现有技术。
Jul, 2018
本篇论文提出了一种计算模型,将激光飞行时间相机的形状、照明和反照率推断联系起来,并通过有效的非参数回归树近似模型输出,为每个像素提供深度、等效反照率和环境光强度的估计和不确定性。同时,通过拓展单路径模型为双路径模型,无需额外计算成本即可描述多径效应。
Jul, 2015