FlowDepth: 光流与自监督单目深度估计的解耦
本研究提出了一种基于深度学习的深度估计方法,通过将光流信息与深度估计相结合,在预测不同运动情况下的深度时减小像素包裹误差和光学向量,利用自我监督深度估计方法对不同运动区域进行独立估计并组合为完整的深度,能够比 KITTI Depth 数据集上的现有深度估计器表现更好,同时在 KITTI Flow 2015 数据集上也达到了竞争性的光流性能。
Sep, 2023
我们提出了一种新颖的自监督单眼深度估计方法,使用动态成本体积来处理静态环境中的移动物体,通过静态和动态成本体积互补来改善深度图的准确性,并采用金字塔蒸馏损失和自适应光度误差损失来提高精度。实验证明,我们的模型在自监督单眼深度估计方面优于先前发布的基线模型。
Aug, 2023
本文介绍了一种名为 FG-Depth 的简单而有效的框架,通过利用预训练的 Flow-Net 的先验知识来引导优化,从而打破了无监督单眼深度估计的瓶颈,提出了流蒸馏损失和基于先验流的掩模来提高模型性能以及消除噪声,实验结果表明,该方法在 KITTI 和 NYU-Depth-v2 数据集上均达到了最领先的效果。
Jan, 2023
这篇论文提出了一种自动学习的多帧单目深度预测方法 DynamicDepth,通过自补丁一致性学习方案训练一个新的框架,其中进行了动态物体运动分离来解决匹配问题,并设计了新型的遮挡感知代价卷积和复投影代价来减轻物体运动对遮挡的影响,实验证明该方法在动态物体方面显著优于现有的单目深度预测方法。
Mar, 2022
提出了一种自监督室内单目深度估计框架 F^2Depth,利用自监督光流估计网络对深度学习进行监督,结合经过精调的光流估计网络产生的多尺度特征图进行特征图融合损失计算,实验结果表明该框架及其提出的损失函数具有较好的室内场景单目图像泛化能力。
Mar, 2024
使用流场匹配的方法,通过引入预训练的图像扩散模型作为先验,允许仅在合成数据上进行训练的深度估计模型在真实图像上得到泛化;引入辅助表面法线损失进一步改进深度估计,模型对深度估计的置信度进行可靠预测,且在复杂自然场景的标准基准上,轻量级的方法表现优秀且计算成本低。
Mar, 2024
本文提出的单目场景流(Scene Flow)估计方法基于一个卷积神经网络(CNN),通过充分考虑光流代价体积,成功估算出深度和三维运动。我们采用了自监督学习方法,利用三维损失函数和遮挡推理来提高估计精度。实验结果表明,该方法在单目场景流估计领域取得了最佳性能,同时在光流和单目深度估计子任务上也获得了很好的结果。
Apr, 2020
Dynamo-Depth 是一种基于未标记单目视频筛选的三维独立光流场和运动分割的联合学习的方法,通过解决动态场景下深度估计的不确定性问题,实现了在 Waymo Open 和 nuScenes 数据集上单目深度估计的最新成果,特别在移动物体的深度上有显著改进。
Oct, 2023
这篇论文提出了一种利用几何一致性作为监督信号的无监督学习框架,可以同时训练单视角深度预测和光流估计模型,在训练过程中,所有网络均进行联合优化,在测试时可以单独应用,实验证明该方法与现有的无监督方法相比具有竞争优势。
Sep, 2018