ResDepth: 学习残差三维重建
本文介绍了一种基于单目深度估计的新型深度学习架构 - monoResMatch, 通过理论证明和严谨的实验,该架构通过合成不同视点的特征进行立体匹配,综合利用了代理监督信息,并且在自我监督方法上对无需昂贵的深度标签,取得了准确的单目深度估计成果。
Apr, 2019
本论文提出了一种基于卷积神经网络的方法,能够从立体输入中学习计算密集的视差图,使用图像变形误差作为损失函数,无需地面真实的视差图。该方法经过在 KITTI 和 Middlebury 立体基准数据集上的实验,证明优于许多现有技术并且速度更快。
Sep, 2017
提出了一种使用卷积神经网络(CNN)从立体图像估计深度,利用预测的深度图进行体积融合,进而恢复场景的三维重建方法,该方法采用了新的深度细化架构,实现了先进成本滤波架构成本的近半降低,采用风暴池架构进行特征提取,该方法在多个基准数据集上均取得了领先的成果。
Apr, 2019
采用残差学习和反 Huber loss,提出了一种全卷积结构的模型,可通过单个 RGB 图像估计场景深度图,优于当前所有深度估计方法,且无需后处理技术,能够实时运行。
Jun, 2016
本文提出了一种级联卷积神经网络,它深度学习处理立体成像时产生的不适定区域难点,通过残差学习技术实现了高精度的视差图生成,达到了极佳的匹配效果。
Aug, 2017
该文提出了一种基于深度学习的新型架构,用于处理立体图像的视差回归问题,通过代价体积和不同 iable sof argmin 算法来进行图像处理,并在 KITTI 数据集上创造了新的最佳性能结果。
Mar, 2017
该研究介绍了一种基于单目深度估计,使用错误匹配视差地图训练立体匹配网络的方法,无需真实深度或手动设计人工数据即可将任何 RGB 图像列表转换为立体训练数据,并在 KITTI、ETH3D 和 Middlebury 等数据集上表现出色。
Aug, 2020
通过采用 Modularly ADaptive Network (MADNet) 和 Modular ADaptation (MAD) 算法,本文提出了一种具有实时自适应功能的深度立体系统,能够在异构数据集上实现卓越的性能表现。
Oct, 2018
基于残差估计的递归结构网络 RecSM 用于视频立体匹配,通过计算当前帧与前一帧之间的残差值,仅利用时间上下文作为参考,快速计算当前帧的位移,同时使用 DOM 和 TAM 模块进一步减少估计误差,堆叠式计算结构 (SCS) 实现可扩展性。实验结果表明,RecSM 在一块 NVIDIA RTX 2080TI GPU 上运行 0.054 秒,相比 ACVNet 提高了 4 倍的速度,准确度仅下降 0.7%。
Jun, 2024