引导式立体匹配
该研究介绍了一种基于单目深度估计,使用错误匹配视差地图训练立体匹配网络的方法,无需真实深度或手动设计人工数据即可将任何 RGB 图像列表转换为立体训练数据,并在 KITTI、ETH3D 和 Middlebury 等数据集上表现出色。
Aug, 2020
本文回顾了十多年来用于立体匹配置信度估计的算法和策略,并评估了现有的置信度估计方法,包括手工设计的和最新的基于学习的方法,在五个标准数据集上进行实验,并首次将一个最先进的深度立体网络与置信度测量技术配对进行比较,旨在提供该领域的全面概述,并突出了基于学习的方法的优势和局限性。
Jan, 2021
本论文提出了一种基于卷积神经网络的方法,能够从立体输入中学习计算密集的视差图,使用图像变形误差作为损失函数,无需地面真实的视差图。该方法经过在 KITTI 和 Middlebury 立体基准数据集上的实验,证明优于许多现有技术并且速度更快。
Sep, 2017
该研究提出了一种可嵌入低功耗 GPU 设备的实时系统,使用 Semi-Global Matching 算法,针对机器人、高级驾驶辅助系统和自主车辆等的需求,在 640x480 的图像大小、128 个视差级别和 4 个路径方向下,以每秒 42 帧的速度生成可靠的视差估计结果。
Oct, 2016
研究表明,语义立体匹配比独立任务能更好地了解机器人、自我导航、增强现实等领域的场景理解。本文提出了一种单一的紧凑型和轻量级架构,通过多阶段的自上而下的估算,使得在任何硬件上和任何应用中都可以获得非常快速的推理,并对特定的应用要求进行准确度和速度的权衡。
Oct, 2019
提出了 StereoNet,这是第一个端到端实时立体匹配的深度学习架构,在 NVidia Titan X 上以 60fps 运行,产生高质量,边缘保留且无量化的视差图。 该网络具有超像素匹配精度的关键洞见,比传统立体匹配方法高一个数量级,通过使用低分辨率代价体编码所需的所有信息,从而实现实时性。采用学习的边缘感知上采样函数实现空间精度,并使用 Siamese 网络从左右图像提取特征。在非常低的分辨率代价体中计算视差的初步估计,然后模型通过使用紧凑的像素到像素细化网络的学习上采样函数分层地重新引入高频细节。利用颜色输入作为指南,该函数能够产生高质量的边缘感知输出,并在多个基准测试中取得了显着的结果,演示了所提出的方法在可接受的计算预算下提供了极大的灵活性。
Jul, 2018
本研究提出了一种深度估计方法,利用来自双目立体视觉和稀疏激光雷达或深度相机的测量信息。通过融合各传感器的优势,即精确但稀疏的测量信息和模糊但密集的立体信息,并采用各向异性扩散和半全局匹配技术进行有效地融合。该方法在 KITTI 2015 和 Middlebury 2014 数据集上评估,表现显著,而且使用 PMDTec Monstar 传感器提供了定量结果。
Sep, 2018
本文综述了基于学习的单目和双目图像深度估计的最新研究,强调了立体匹配、机器学习和深度学习之间的协同作用、迄今为止取得的成功以及社区将在不久的将来面临的挑战。
Apr, 2020
该研究提出了一种基于主动门控立体图像的高分辨率和长距离深度估计技术 - Gated Stereo,该技术利用主动和高动态范围的被动捕获,利用多视图线索以及来自主动门控的飞行时间强度线索。其中,该研究提出了一种通过单目和立体深度预测分支组合的深度估计方法,并且每个块都通过监督和门控自监督损失进行监督,并为汽车场景获取了一种长距离同步门控立体数据集。该方法的性能比最佳 RGB 立体方法提高了 50%以上的 MAE,并比现有的单目门控方法在距离 160 米内的距离范围内提供了 74%的 MAE。
May, 2023