基于方向感知的累加卷积网络的自监督单目深度估计
提出 ManyDepth,一种自适应的、可以在测试时间利用序列信息的深度估计方法,通过深度自监督训练基于端到端代价体系积攒的方法,鼓励网络忽略不可靠的代价体以及针对静态相机场景的增强方案。实验证明此方法在 KITTI 和 Cityscapes 上表现优于其他单帧和多帧的自监督基线模型。
Apr, 2021
室内深度自动估计的自我监督学习是困难的,挑战主要集中在大面积低纹理区域和复杂的内部训练数据上。本文提出了一种名为 IndoorDepth 的新方法,包括两个创新点:首先,我们提出了一种改进的结构相似(SSIM)功能的新颖光度损失函数,用于应对低纹理区域的挑战;此外,为了进一步减轻不准确的自身运动预测问题,我们使用多个不同阶段的光度损失进行训练,以构建更深的姿态网络。通过对实验的深入研究,我们验证了每个新想法的有效性。在 NYUv2 基准测试中,我们的 IndoorDepth 方法在性能上超过了之前的最新方法。此外,我们还在 ScanNet 数据集上验证了我们的方法的泛化能力。
Dec, 2023
提出了一种 Categorical Depth Distribution Network (CaDDN) 的解决方案,用于解决单目三维目标检测中的深度估计问题。在 KITTI 3D 目标检测基准测试中排名第一,同时也提供了用于 CaDDN 的代码发布。
Mar, 2021
本论文提出了一种基于自注意机制和通道注意力的深度估计网络(CADepth-Net),通过结构感知模块和细节强调模块对场景结构和细节信息进行建模和处理,从而实现更加准确和清晰的深度预测,并在 KITTI 基准和 Make3D 数据集上取得了最新的最先进成果。
Dec, 2021
本文提出了一种基于 HRNet 网络的深度估计网络 ——DIFFNet,它能在下采样和上采样过程中利用语义信息,并通过特征融合和注意力机制提高算法表现,实验结果表明,该方法在 KITTI 基准数据集上优于当前最先进的单目深度估计方法,并具有处理更高分辨率数据的潜力。我们还通过建立具有挑战性案例的测试集提出了额外的评估策略。
Oct, 2021
本文提出 DNet 方法,利用密集连接预测层(DCP)和密集几何约束(DGC)部分解决自我监督方法中单目深度估计的两个问题:精确的对象级深度推断和不确定的比例因子。实验证明,DCP 层可以更好地识别深度图像中的对象边界并改善对象级深度的连续性,而使用 DGC 执行比例恢复的性能与使用真实地面真值信息相当。
Apr, 2020
本文提出了一种基于回归和分类级联的网络,利用大规模训练数据和数据增强策略,在空间和深度分辨率之间寻求平衡,提高了网络的训练效果,在 NYU Depth V2、KITTI、Make3D 等基准测试中均取得了最佳或最先进的结果。
Aug, 2017
本文提出了一种利用深度学习解决复杂多物体单目深度估计问题的端到端学习框架,通过将单目深度估计表述为一种多类别密集标注任务以及采用软加权和推断方法等策略,实现了对多尺度深度信息的有效利用,降低了量化误差并提高了方法的鲁棒性。实验结果表明,该方法在 NYU Depth V2 数据集上表现优于当前最先进方法。
Aug, 2017
利用生成网络的训练策略,我们提出了一种在无监督单目深度估计中具有鲁棒性的扩散模型,并采用分层特征引导的去噪模块来丰富模型的学习能力,进一步探索了图像重投影中的隐式深度,并设计了一种隐式深度一致性损失,从而提高了模型的性能和深度在视频序列中的尺度一致性。实验证明,我们的方法在生成网络模型中脱颖而出,并且具有显著的鲁棒性。
Jun, 2024
本研究提出了两种新的方法以提高自监督单目训练深度估计,分别为自我关注和离散视差预测,将这两种方法应用到最先进的单目深度估计模型 Monodepth2 中,超越其他自监督和完全监督方法,获得在 KITTI 2015 和 Make3D 数据集上最好的结果。
Mar, 2020