基于特征一致性学习的视差估计
本研究提出了一种三步改进的立体匹配管道,其中包括了基于多级加权残差快捷方式的高速公路网络结构,用于计算每个可能差异的匹配成本,并引入了新的后处理步骤,旨在处理全局信息结合的图像不确定性,从而提高异常点检测的性能,并在现有技术上实现了最新的性能。
Dec, 2016
本研究以深度学习的 cost aggregation 理论为基础,提出了使用两路神经网络进行视差匹配的方法,并在 KITTI 和 Scene Flow 等数据集上进行全面实验。实验表明,本方法在性能上胜过了目前的最先进方法。
Jan, 2018
该论文通过使用卷积神经网络预测图像之间匹配的好坏,进而计算立体匹配代价,再通过交叉基准代价聚合、半全局匹配和左右一致性检查(LRC)来消除遮挡区域中的错误,从而获得了较低的误差率。该方法在 KITTI 立体数据集上达到了 2.61%的误差率,并且是该数据集上目前(2014 年 8 月)表现最好的方法。
Sep, 2014
本文提出一种基于传统匹配成本的快速深度估计网络,该网络仅使用每个像素和二维卷积操作来总结每个位置的匹配信息,并以低维特征向量的形式生成密集的视差图,在保证准确度的同时,相较于其他算法显著加快了处理速度。
Mar, 2019
本文提出了一种用于改善深度估计的 CNN 体系结构,该体系结合语义分割任务。所提出的模型是使用无监督方法进行训练的,并采用双目摄像系统的图像对。实验表明,使用语义分割的嵌入可以提高深度估计的性能
Sep, 2018
本文提出了使用卷积神经网络 (CNN) 从三维数据中直接学习置信度估计特征的新方法,将深度学习和代价体特征相结合,通过对三个数据集上的三种常见密集立体匹配技术进行广泛评估,证明了该方法的广泛性和最先进的准确性。
May, 2019
本研究基于深度立体匹配中使用的 3D 卷积学习 3D 成本体积和流形成本之间的映射关系,旨在提出一种新的算法,该算法绕过了需要构建 5D 特征体积的要求。具体而言,本研究提出解耦 2D 位移之间的关系,并在每个 2D 位移假设上独立地应用 2D 卷积匹配网络来学习 4D 成本体积,从而实现了独立于位移的成本学习。最后,我们采用 2D soft-argmin 层将成本体积投影到光流估计中。
Oct, 2020
本文提出了两种方案来解决卷积神经网络立体匹配的问题。第一种方案是使用局部相似度模式 (LSP) 的成对特征作为卷积特征 (CF) 的补充,以更具区分性的特征描述。第二种方案是设计动态自组装细化策略,用于成本分布和视差图的细化,从而显著提高了建模的性能。
Dec, 2021
本研究基于卷积神经网络为计算视差匹配的成本聚合,并针对 KITTI2012、KITTI2015 和 Middlebury 立体数据集对该方法进行了验证,结果表明其在所有三个数据集上优于其他方法。
Oct, 2015
本论文提出了一种基于卷积神经网络的方法,能够从立体输入中学习计算密集的视差图,使用图像变形误差作为损失函数,无需地面真实的视差图。该方法经过在 KITTI 和 Middlebury 立体基准数据集上的实验,证明优于许多现有技术并且速度更快。
Sep, 2017