SuperDepth: 自监督、超分辨率单目深度估计
该论文提出了一种改进的自监督学习方法,包括最小 reprojection 损失、全分辨率多尺度采样和自动屏蔽损失,以实现单眼深度估计。研究结果表明,该方法能够在 KITTI 基准测试上达到业界领先的结果。
Jun, 2018
本研究提出了两种新的方法以提高自监督单目训练深度估计,分别为自我关注和离散视差预测,将这两种方法应用到最先进的单目深度估计模型 Monodepth2 中,超越其他自监督和完全监督方法,获得在 KITTI 2015 和 Make3D 数据集上最好的结果。
Mar, 2020
本文介绍了一种新方法,可将任何现成的自我监督的单目深度重建系统扩展到在测试时使用多个图像。该方法利用自我监督来提高多个视图可用时深度重建的准确性,在 KITTI 基准测试中,我们的自我监督方法在常见的三种设置(单目、立体和单目 + 立体)下平均减少绝对误差 25%,并在准确性上接近完全受监督的最先进方法。
Apr, 2020
该论文提出了一种自监督学习的方法,利用几何先验和自编码器来提高单目深度估计的效果,实验结果表明该方法在 KITTI 数据集上的表现优于现有方法,适用于高性能 GPU 和嵌入式设备。
Aug, 2019
本文提出了改进的 DepthNet-HR-Depth,使用两种有效的策略 —— 重新设计 DepthNet 中的 skip-connection 以获得更好的高分辨率特征,并提出了特征融合 Squeeze-and-Excitation(fSE)模块以更高效地融合特征,以获得在高分辨率注意和低分辨率注意下超过所有最先进方法的性能。
Dec, 2020
该研究针对单目深度估计的自监督学习方法,在不需要昂贵激光扫描或其他基础数据的情况下,使用 Depth Hints 通过加入来自简单立体算法的参考感知补充了光度学重投影代价函数,从而提高训练深度估计网络时的深度预测精度,该方法取得了在 KITTI 数据集上的最优预测效果。
Sep, 2019
通过使用数据增强技术和细节增强的 DepthNet,该文提出了一种自我监督单目深度估计方法,拓展了训练数据的利用,并在 KITTI、Make3D 和 NYUv2 数据集上实现了最先进的性能。
Sep, 2023
该研究提出了一种双网络结构及自组装注意力模块,可以直接处理高分辨率图像,从而更有效地生成高分辨率和高准确度的景深图,并在 KITTI 和 Make3D 数据集上实现了单目景深估计中最先进的结果。
Oct, 2019
提出 ManyDepth,一种自适应的、可以在测试时间利用序列信息的深度估计方法,通过深度自监督训练基于端到端代价体系积攒的方法,鼓励网络忽略不可靠的代价体以及针对静态相机场景的增强方案。实验证明此方法在 KITTI 和 Cityscapes 上表现优于其他单帧和多帧的自监督基线模型。
Apr, 2021