使用双重网络从视频中无监督地学习高分辨率深度
本篇论文提出了一种基于子像素卷积层和翻转增强层的高分辨率自监督单目深度估计方法,在公共 KITTI 基准测试中取得了目前最好表现。
Oct, 2018
本文提出了改进的 DepthNet-HR-Depth,使用两种有效的策略 —— 重新设计 DepthNet 中的 skip-connection 以获得更好的高分辨率特征,并提出了特征融合 Squeeze-and-Excitation(fSE)模块以更高效地融合特征,以获得在高分辨率注意和低分辨率注意下超过所有最先进方法的性能。
Dec, 2020
本文提出了一种基于 HRNet 网络的深度估计网络 ——DIFFNet,它能在下采样和上采样过程中利用语义信息,并通过特征融合和注意力机制提高算法表现,实验结果表明,该方法在 KITTI 基准数据集上优于当前最先进的单目深度估计方法,并具有处理更高分辨率数据的潜力。我们还通过建立具有挑战性案例的测试集提出了额外的评估策略。
Oct, 2021
提出 ManyDepth,一种自适应的、可以在测试时间利用序列信息的深度估计方法,通过深度自监督训练基于端到端代价体系积攒的方法,鼓励网络忽略不可靠的代价体以及针对静态相机场景的增强方案。实验证明此方法在 KITTI 和 Cityscapes 上表现优于其他单帧和多帧的自监督基线模型。
Apr, 2021
本研究提出了一种分辨率自适应的自监督单目深度估计方法,通过数据增强和多路径编码器解码器等方法提高特征融合精度,进而在 KITTI,Make3D 和 NYU-V2 等数据集上取得了具有竞争力的结果。
Jul, 2022
通过对输入分辨率和场景结构对深度估计性能的影响进行分析,本文提出了一种使用深度合并网络,结合低分辨率和高分辨率估计的方法,以在一定精度下生成具有细节的高分辨率深度图像,其中包括双重估计方法和补丁选择方法。通过合并不同分辨率的估计并应用不同的上下文,本文在预训练模型的基础上生成了多兆像素的深度图像。
May, 2021
本研究提出了两种新的方法以提高自监督单目训练深度估计,分别为自我关注和离散视差预测,将这两种方法应用到最先进的单目深度估计模型 Monodepth2 中,超越其他自监督和完全监督方法,获得在 KITTI 2015 和 Make3D 数据集上最好的结果。
Mar, 2020
本文提出了一种新的方法来提高深度图像的空间分辨率,使用深度全卷积神经网络和非局部变分方法在深度的原始 - 对偶网络中结合起来,通过训练我们的联合方法,可以优化卷积网络和变分方法及其优化过程等所有参数。评估表明,该方法在多个基准测试中性能优于现有技术。
Jul, 2016
量化监督式单视图深度的不确定性的贝叶斯深度神经网络,通过光照作为单视图自我监督信号,提出了一种仅需 RGB 图像和内窥镜的几何和光度校准的完全自我监督方法。
Jun, 2024
通过使用数据增强技术和细节增强的 DepthNet,该文提出了一种自我监督单目深度估计方法,拓展了训练数据的利用,并在 KITTI、Make3D 和 NYUv2 数据集上实现了最先进的性能。
Sep, 2023