本文提出了一种无监督学习框架,通过使用视图合成作为监督信号,同时训练深度和相机位姿估计网络以完成从非结构化视频序列中的单目深度和相机运动估计的任务。经验评估表明,我们的方法具备与基于监督方法使用地面真值位姿或深度进行训练的方法相当的单目深度估计能力,并且在相似的输入设置下,姿态估计表现良好。
Apr, 2017
用联合训练的方式估计光流与视差,进而获取更精细的遮挡与物体边界,同时估计动态物体的刚体运动。
Oct, 2023
这篇论文提出了一种利用几何一致性作为监督信号的无监督学习框架,可以同时训练单视角深度预测和光流估计模型,在训练过程中,所有网络均进行联合优化,在测试时可以单独应用,实验证明该方法与现有的无监督方法相比具有竞争优势。
Sep, 2018
通过无监督学习框架,我们提出了一种将运动立体相机观察到的 3D 场景流分解为静止场景元素和动态物体运动的方法。我们利用三个协同工作的网络来预测立体匹配、相机运动和残留流,并明确估计基于残留流和场景深度的动态物体的 3D 场景流。在 KITTI 数据集上的实验表明,我们的方法在光流和视觉里程计任务上优于其他现有算法。
Sep, 2019
本研究提出了一种基于学习的单眼立体视觉方法,可扩展到多个目标帧的深度信息融合,具有优秀的精度和效率。
本研究提出了一种基于深度学习的深度估计方法,通过将光流信息与深度估计相结合,在预测不同运动情况下的深度时减小像素包裹误差和光学向量,利用自我监督深度估计方法对不同运动区域进行独立估计并组合为完整的深度,能够比 KITTI Depth 数据集上的现有深度估计器表现更好,同时在 KITTI Flow 2015 数据集上也达到了竞争性的光流性能。
Sep, 2023
提出了一种新颖的无监督学习深度和自我运动的方法,它主要基于对场景的推断 3D 几何形状进行对齐,并与基于光度学营养和有效性掩模的 2D 损失相结合,最终得出在 KITTI 数据集上的优越结果。
Feb, 2018
DFPNet 是一种联合学习系统,通过单眼图像序列估计单眼景深、光流和自身运动(相机姿态),使用单一的复合损失函数进行训练,并使用超参数调整来使模型的大小小于目前市场上同类模型的 5%以下。在 KITTI 和 Cityscapes 驾驶数据集上进行评估,结果表明我们的模型在所有三个任务上的表现都可以媲美目前市场上同类模型的表现,即使模型大小明显更小。
May, 2022
利用几何约束将光流和相机运动估计问题融合为一个双层优化问题,进一步优化了基于无监督深度学习框架的光流估计和相机运动估计的质量,相较于其他无监督学习方法,获得了更好的结果。
Feb, 2020
我们提出了一种创新的混合方法,既利用深度学习方法又利用基于光流的传统方法来进行密集运动分割,而无需进行任何训练。
Jun, 2024