本篇论文提出了一种基于子像素卷积层和翻转增强层的高分辨率自监督单目深度估计方法,在公共KITTI基准测试中取得了目前最好表现。
Oct, 2018
本研究提出了两种新的方法以提高自监督单目训练深度估计,分别为自我关注和离散视差预测,将这两种方法应用到最先进的单目深度估计模型Monodepth2中,超越其他自监督和完全监督方法,获得在KITTI 2015和Make3D数据集上最好的结果。
Mar, 2020
本文提出的自监督方法能够在KITTI数据集上以最先进的精度预测深度图,并且能够用于在训练过程中估计深度图的不确定性。
May, 2020
本文提出了改进的DepthNet-HR-Depth,使用两种有效的策略——重新设计DepthNet中的skip-connection以获得更好的高分辨率特征,并提出了特征融合Squeeze-and-Excitation(fSE)模块以更高效地融合特征,以获得在高分辨率注意和低分辨率注意下超过所有最先进方法的性能。
Dec, 2020
提出 ManyDepth,一种自适应的、可以在测试时间利用序列信息的深度估计方法,通过深度自监督训练基于端到端代价体系积攒的方法,鼓励网络忽略不可靠的代价体以及针对静态相机场景的增强方案。实验证明此方法在 KITTI 和 Cityscapes 上表现优于其他单帧和多帧的自监督基线模型。
Apr, 2021
该研究提出一种新的数据增强方法(data grafting)、探索性自蒸馏损失函数(exploratory self-distillation loss)、和全尺寸卷积神经网络,以提高自监督单目深度估计的表示能力和性能表现,实验结果表明该模型EPCDepth在更少的计算量下超越了之前的最新优秀模型。
Sep, 2021
该研究提出了一种基于Transformer和CNN特征组合的分层聚合模型,以解决有监督单目深度估计的问题,实验结果表明,该模型在KITTI、NYU和SUN RGB-D等数据集上均超越了现有的有监督单目深度估计方法,特别是在KITTI深度估计基准测试上实现了最具竞争力的结果。
Mar, 2022
本研究提出了一种分辨率自适应的自监督单目深度估计方法,通过数据增强和多路径编码器解码器等方法提高特征融合精度,进而在KITTI,Make3D和NYU-V2等数据集上取得了具有竞争力的结果。
Jul, 2022
提出了一种名为RElative Depth Transformer(RED-T)的深度估计模型,使用相对深度作为自注意力的指导,通过分配高关注权重来使类似深度的特征更加相似而不易被误用的视觉线索来提高深度估计的准确性,并在数据集上取得了竞争性的结果。
Apr, 2023
本研究针对传统自监督单目深度估计方法在空间信息传递和通道特征利用上的不足,提出了一种基于大核注意力的解码器。该方法能够有效建模长距离依赖关系,同时保持特征的二维结构和通道适应性,实现细致的深度映射恢复,并在KITTI数据集上表现出竞争力的结果。
Sep, 2024