HQDec: 基于高质量解码器的自监督单目深度估计
本文提出了一种基于卷积神经网络的深度估计方法,结合迁移学习使用高性能网络初始化编码器以及增强和训练策略以获得更准确的结果,结果表明,即使是非常简单的解码器,我们的方法也能够产生细节详尽的高分辨率深度图像。
Dec, 2018
本文提出了改进的DepthNet-HR-Depth,使用两种有效的策略——重新设计DepthNet中的skip-connection以获得更好的高分辨率特征,并提出了特征融合Squeeze-and-Excitation(fSE)模块以更高效地融合特征,以获得在高分辨率注意和低分辨率注意下超过所有最先进方法的性能。
Dec, 2020
通过对输入分辨率和场景结构对深度估计性能的影响进行分析,本文提出了一种使用深度合并网络,结合低分辨率和高分辨率估计的方法,以在一定精度下生成具有细节的高分辨率深度图像,其中包括双重估计方法和补丁选择方法。通过合并不同分辨率的估计并应用不同的上下文,本文在预训练模型的基础上生成了多兆像素的深度图像。
May, 2021
该研究提出了一种新的深度估计结构和训练策略,使用层次变压器编码器来捕获全局上下文,并设计轻量级但强大的解码器来生成估计的深度图,通过构建连接不同尺度的局部特征和全局解码流之间的连接路径,在分层特征融合模块的作用下,网络可以综合两种表示形式并恢复细节信息。与以往的解码器相比,本文提出的解码器具有更好的性能和更少的计算复杂度,并利用深度估计中的重要观察来改善深度特定的数据增强方法,网络在深度数据集NYU Depth V2上达到了最先进的性能,并表现出比其他模型更好的泛化能力和鲁棒性。
Jan, 2022
该研究提出了一种基于Transformer和CNN特征组合的分层聚合模型,以解决有监督单目深度估计的问题,实验结果表明,该模型在KITTI、NYU和SUN RGB-D等数据集上均超越了现有的有监督单目深度估计方法,特别是在KITTI深度估计基准测试上实现了最具竞争力的结果。
Mar, 2022
本研究提出了一种分辨率自适应的自监督单目深度估计方法,通过数据增强和多路径编码器解码器等方法提高特征融合精度,进而在KITTI,Make3D和NYU-V2等数据集上取得了具有竞争力的结果。
Jul, 2022
通过引入基于注意力机制的 Skip Attention Module,使得 Monocular Depth Estimation 的编码器和解码器特征更好地融合;并将问题表述为一个像素查询细化问题,利用提出的 Bin Center Predictor 模块进行限制性回归。在 NYUV2 和 KITTI 两个数据集上进行的广泛实验均表明,该架构的性能优于现有技术,并在 SUNRGBD 数据集上具有更好的泛化性能。
Oct, 2022
本文介绍了一种使用弱监督学习方法来进行全景3D深度估计的高分辨率重建技术,该技术能够从低分辨率全景图像中提取场景结构知识并将其传递到高分辨率深度估计中。
Apr, 2023
本文解决了自监督单目深度估计中对高分辨率和多帧输入依赖的问题,提出了一种只需单幅图像的“丰富资源先验深度估计器”(RPrDepth)。通过将丰富资源数据作为先验信息,并基于其特征进行单图像深度估计,实验结果表明,该方法的性能超越其他单图像模型,并可与高资源模型相媲美。
Aug, 2024
本研究针对传统自监督单目深度估计方法在空间信息传递和通道特征利用上的不足,提出了一种基于大核注意力的解码器。该方法能够有效建模长距离依赖关系,同时保持特征的二维结构和通道适应性,实现细致的深度映射恢复,并在KITTI数据集上表现出竞争力的结果。
Sep, 2024