基于 Flow-Motion 和深度网络的单目立体视觉及其应用
该研究提出了一种基于可微的光流深度预测层的方法,包括光流深度预测层、相机姿态优化模块和深度融合网络,该方法在三个公共数据集上的实验结果表明其性能优于现有的深度估计方法,并具有合理的交叉数据集泛化能力。
Dec, 2019
该论文将运动结构问题建模为学习问题,使用卷积网络端到端地训练连续、无约束图像对的深度和相机运动,采用多层叠加的编码器 - 解码器网络。与传统的两帧结构运动方法相比,结果更加精确、更强韧。
Dec, 2016
本文提出了一种称为 Mono-SF 的新型单目 3D 场景流估计方法,将多视角几何和单视深度信息相结合,使用统计方式的卷积神经网络 ProbDepthNet 来整合单视深度估计,并通过回校准技术提高估计深度的准确性。实验证明 Mono-SF 具有优于现有单目基线的性能,对 Mono-SF 方法和 ProbDepthNet 设计的削弱研究成果支持该方法。
Aug, 2019
DFPNet 是一种联合学习系统,通过单眼图像序列估计单眼景深、光流和自身运动(相机姿态),使用单一的复合损失函数进行训练,并使用超参数调整来使模型的大小小于目前市场上同类模型的 5%以下。在 KITTI 和 Cityscapes 驾驶数据集上进行评估,结果表明我们的模型在所有三个任务上的表现都可以媲美目前市场上同类模型的表现,即使模型大小明显更小。
May, 2022
通过无监督学习框架,我们提出了一种将运动立体相机观察到的 3D 场景流分解为静止场景元素和动态物体运动的方法。我们利用三个协同工作的网络来预测立体匹配、相机运动和残留流,并明确估计基于残留流和场景深度的动态物体的 3D 场景流。在 KITTI 数据集上的实验表明,我们的方法在光流和视觉里程计任务上优于其他现有算法。
Sep, 2019
本文提出了一种无监督学习框架,通过使用视图合成作为监督信号,同时训练深度和相机位姿估计网络以完成从非结构化视频序列中的单目深度和相机运动估计的任务。经验评估表明,我们的方法具备与基于监督方法使用地面真值位姿或深度进行训练的方法相当的单目深度估计能力,并且在相似的输入设置下,姿态估计表现良好。
Apr, 2017
本研究提出了一种基于深度学习的深度估计方法,通过将光流信息与深度估计相结合,在预测不同运动情况下的深度时减小像素包裹误差和光学向量,利用自我监督深度估计方法对不同运动区域进行独立估计并组合为完整的深度,能够比 KITTI Depth 数据集上的现有深度估计器表现更好,同时在 KITTI Flow 2015 数据集上也达到了竞争性的光流性能。
Sep, 2023