AANet: 用于高效立体匹配的自适应聚合网络
在立体匹配任务中,匹配成本聚合对于准确估计视差在传统方法和深度神经网络模型中都非常重要。本文提出了两个新颖的神经网络层,旨在分别捕捉本地和整个图像成本依赖关系。实验表明,具有两个引导聚合块的网路轻松超越具有十九个 3D 卷积层的 GC-Net 的最新技术水平。我们还训练了一个深度引导聚合网络(GA-Net),其在 Scene Flow 数据集和 KITTI 基准测试上比最先进的方法更准确。
Apr, 2019
本研究以深度学习的 cost aggregation 理论为基础,提出了使用两路神经网络进行视差匹配的方法,并在 KITTI 和 Scene Flow 等数据集上进行全面实验。实验表明,本方法在性能上胜过了目前的最先进方法。
Jan, 2018
基于 GhostNet 的 Ghost-Stereo 是一种新颖的端到端立体匹配网络,使用特征增强模块和轻量级聚合模块来提高成本体积质量,从而取得与最先进的实时方法相当的性能,并展现出更好的泛化能力。
May, 2024
本文提出了一种新的深度学习架构 ——Atrous Multiscale Network(AMNet)用于立体视差估计,AMNet 采用了有效的特征提取器,并且能够在深度特征上部署新的立体匹配代价,其提出了堆叠式 Atrous Multiscale 网络来聚合来自代价体积的丰富多尺度语境信息,可在多种尺度上高精度地估计视差。此外,本文提出了一种迭代式多任务学习方法来训练前景 - 背景感知 Atrous Multiscale 网络(FBA-AMNet),并且表明 AMNet 和 FBA-AMNet 在具有挑战性的 Middlebury,KITTI 2012,KITTI 2015 和 Sceneflow 立体视差估计基准测试中具有高精度的视差估计。
Apr, 2019
本文提出了一种分解模型来解决在分辨率提高时计算成本(时间和内存成本)过高的立体匹配问题,该模型仅在很低的分辨率下运行密集匹配,使用不同的高分辨率下的稀疏匹配来逐步恢复失去细节的视差,并通过一个有遮挡感知掩码迭代地融合相邻尺度上的稀疏和密集视差图,同时应用细化网络来改善融合结果,相比高性能方法如 PSMNet 和 GANet,我们的方法在获得可比较的视差估计结果时提高了 $10 - 100 imes$ 的速度。
Apr, 2021
该论文提出了一种新的算法 PSMNet,通过空间金字塔池化模块和三维卷积神经网络来提取全局上下文信息并形成代价体积,通过多层次网络及中间监督来优化代价体积,该算法在 KITTI 2012 和 2015 数据集中的表现也十分优秀。
Mar, 2018
本文提出一种基于传统匹配成本的快速深度估计网络,该网络仅使用每个像素和二维卷积操作来总结每个位置的匹配信息,并以低维特征向量的形式生成密集的视差图,在保证准确度的同时,相较于其他算法显著加快了处理速度。
Mar, 2019
本文提出了两种方案来解决卷积神经网络立体匹配的问题。第一种方案是使用局部相似度模式 (LSP) 的成对特征作为卷积特征 (CF) 的补充,以更具区分性的特征描述。第二种方案是设计动态自组装细化策略,用于成本分布和视差图的细化,从而显著提高了建模的性能。
Dec, 2021
本文介绍了一种利用长短时记忆的新型递归多视角立体视觉网络,该网络基于自适应聚合,并提出了协同作用的自适应聚合模块,有效改善了局部细节和大低纹理表面的性能,并且在各种数据集上取得了出色的表现。
Aug, 2021