UFD-PRiME: 通过像素级刚体运动估计进行光流和立体深度的无监督联合学习
本研究提出了一种基于深度学习的深度估计方法,通过将光流信息与深度估计相结合,在预测不同运动情况下的深度时减小像素包裹误差和光学向量,利用自我监督深度估计方法对不同运动区域进行独立估计并组合为完整的深度,能够比 KITTI Depth 数据集上的现有深度估计器表现更好,同时在 KITTI Flow 2015 数据集上也达到了竞争性的光流性能。
Sep, 2023
本文提出一种方法,将深度学习光流和单目视差的预测与基于模型的优化过程相结合,用于瞬时相机姿态估计,并在 KITTI 数据集上展示了最新的结果
Dec, 2018
通过无监督学习框架,我们提出了一种将运动立体相机观察到的 3D 场景流分解为静止场景元素和动态物体运动的方法。我们利用三个协同工作的网络来预测立体匹配、相机运动和残留流,并明确估计基于残留流和场景深度的动态物体的 3D 场景流。在 KITTI 数据集上的实验表明,我们的方法在光流和视觉里程计任务上优于其他现有算法。
Sep, 2019
这篇论文提出了一种利用几何一致性作为监督信号的无监督学习框架,可以同时训练单视角深度预测和光流估计模型,在训练过程中,所有网络均进行联合优化,在测试时可以单独应用,实验证明该方法与现有的无监督方法相比具有竞争优势。
Sep, 2018
本论文提出一种 EffiScene 场景流框架,通过 Rigidity from Motion 层的学习,同时联合学习光流、深度、相机姿态和运动分割 4 个底层视觉子任务,有效地解决了无监督场景流估计问题。实验证明,该方法在 KITTI 基准测试中,明显提高了所有子任务的表现。
Nov, 2020
本研究提出了一种新的多帧场景流计算方法,包括景深和光流以及相机自运动,同时从移动立体相机中观察动态场景,并将移动对象与固定场景分割开来。该技术在立体匹配和视觉里程计中使用独特的策略,融合移动目标的光流信息和相机基于运动流的信息来提高场景深度和相机自运动估计的精度和效率。
Jul, 2017
利用几何约束将光流和相机运动估计问题融合为一个双层优化问题,进一步优化了基于无监督深度学习框架的光流估计和相机运动估计的质量,相较于其他无监督学习方法,获得了更好的结果。
Feb, 2020