FG-Depth: 基于光流引导的无监督单目深度估计
利用生成网络的训练策略,我们提出了一种在无监督单目深度估计中具有鲁棒性的扩散模型,并采用分层特征引导的去噪模块来丰富模型的学习能力,进一步探索了图像重投影中的隐式深度,并设计了一种隐式深度一致性损失,从而提高了模型的性能和深度在视频序列中的尺度一致性。实验证明,我们的方法在生成网络模型中脱颖而出,并且具有显著的鲁棒性。
Jun, 2024
使用流场匹配的方法,通过引入预训练的图像扩散模型作为先验,允许仅在合成数据上进行训练的深度估计模型在真实图像上得到泛化;引入辅助表面法线损失进一步改进深度估计,模型对深度估计的置信度进行可靠预测,且在复杂自然场景的标准基准上,轻量级的方法表现优秀且计算成本低。
Mar, 2024
通过动态的运动流模块及深度感知模糊和成本体积稀疏损失,在自我监督多帧方法中解决了深度估计中的运动物体、光流和光度误差问题,并在实验中表现出超越其他方法的性能。
Mar, 2024
提出了一种自监督室内单目深度估计框架 F^2Depth,利用自监督光流估计网络对深度学习进行监督,结合经过精调的光流估计网络产生的多尺度特征图进行特征图融合损失计算,实验结果表明该框架及其提出的损失函数具有较好的室内场景单目图像泛化能力。
Mar, 2024
DFPNet 是一种联合学习系统,通过单眼图像序列估计单眼景深、光流和自身运动(相机姿态),使用单一的复合损失函数进行训练,并使用超参数调整来使模型的大小小于目前市场上同类模型的 5%以下。在 KITTI 和 Cityscapes 驾驶数据集上进行评估,结果表明我们的模型在所有三个任务上的表现都可以媲美目前市场上同类模型的表现,即使模型大小明显更小。
May, 2022
这篇论文提出了一种利用几何一致性作为监督信号的无监督学习框架,可以同时训练单视角深度预测和光流估计模型,在训练过程中,所有网络均进行联合优化,在测试时可以单独应用,实验证明该方法与现有的无监督方法相比具有竞争优势。
Sep, 2018
该论文提出了一种改进的自监督学习方法,包括最小 reprojection 损失、全分辨率多尺度采样和自动屏蔽损失,以实现单眼深度估计。研究结果表明,该方法能够在 KITTI 基准测试上达到业界领先的结果。
Jun, 2018
本文提出的单目场景流(Scene Flow)估计方法基于一个卷积神经网络(CNN),通过充分考虑光流代价体积,成功估算出深度和三维运动。我们采用了自监督学习方法,利用三维损失函数和遮挡推理来提高估计精度。实验结果表明,该方法在单目场景流估计领域取得了最佳性能,同时在光流和单目深度估计子任务上也获得了很好的结果。
Apr, 2020
该研究提出了一种基于可微的光流深度预测层的方法,包括光流深度预测层、相机姿态优化模块和深度融合网络,该方法在三个公共数据集上的实验结果表明其性能优于现有的深度估计方法,并具有合理的交叉数据集泛化能力。
Dec, 2019
本文提出了一种基于 HRNet 网络的深度估计网络 ——DIFFNet,它能在下采样和上采样过程中利用语义信息,并通过特征融合和注意力机制提高算法表现,实验结果表明,该方法在 KITTI 基准数据集上优于当前最先进的单目深度估计方法,并具有处理更高分辨率数据的潜力。我们还通过建立具有挑战性案例的测试集提出了额外的评估策略。
Oct, 2021