ActiveStereoNet: 面向主动立体视觉系统的端到端自监督学习
本论文提出了一种基于卷积神经网络的方法,能够从立体输入中学习计算密集的视差图,使用图像变形误差作为损失函数,无需地面真实的视差图。该方法经过在 KITTI 和 Middlebury 立体基准数据集上的实验,证明优于许多现有技术并且速度更快。
Sep, 2017
在自动驾驶车辆的背景下,本文重新审视视觉深度估计问题。我们提出了一种新颖的半监督学习方法来训练深度立体神经网络,并提出了一种包含机器学习的 argmax 层和定制运行时的体系结构,可在嵌入式 GPU 上运行一个较小版本的我们的 Stereo DNN。在 KITTI 2015 立体数据集上展示了有竞争力的结果。
Mar, 2018
通过采用 Modularly ADaptive Network (MADNet) 和 Modular ADaptation (MAD) 算法,本文提出了一种具有实时自适应功能的深度立体系统,能够在异构数据集上实现卓越的性能表现。
Oct, 2018
深度立体匹配网络结合边缘检测网络,构成一种多任务学习网络,其中边缘线索提供了出色的线索,以实现细节区域的视差估计精度的提高,并获得 state-of-the-art 的表现。
Mar, 2019
本文提出了 LidarStereoNet,是第一个可以在端到端的未经监督训练的融合网络,无需地面真实深度图。我们通过引入新颖的 “反馈循环” 来连接网络输入与输出,并进一步将分段平面模型结合到网络学习中,以进一步约束深度与底层 3D 几何形状相一致,从而在现实和合成数据集上表现出显著的优越性,比现有的立体匹配、深度完成和 Lidar-Stereo 融合方法取得了更好的效果。
Apr, 2019
提出了一种基于自监督学习框架的多视角立体网络,使用输入数据的伪标签来为网络提供超级噪声,此方法在 DTU 数据集上表现良好,并且在无监督多视图立体场景中能够显著优于现有的方法。
Apr, 2021
该研究提出了一种基于主动门控立体图像的高分辨率和长距离深度估计技术 - Gated Stereo,该技术利用主动和高动态范围的被动捕获,利用多视图线索以及来自主动门控的飞行时间强度线索。其中,该研究提出了一种通过单目和立体深度预测分支组合的深度估计方法,并且每个块都通过监督和门控自监督损失进行监督,并为汽车场景获取了一种长距离同步门控立体数据集。该方法的性能比最佳 RGB 立体方法提高了 50%以上的 MAE,并比现有的单目门控方法在距离 160 米内的距离范围内提供了 74%的 MAE。
May, 2023
提出了 StereoNet,这是第一个端到端实时立体匹配的深度学习架构,在 NVidia Titan X 上以 60fps 运行,产生高质量,边缘保留且无量化的视差图。 该网络具有超像素匹配精度的关键洞见,比传统立体匹配方法高一个数量级,通过使用低分辨率代价体编码所需的所有信息,从而实现实时性。采用学习的边缘感知上采样函数实现空间精度,并使用 Siamese 网络从左右图像提取特征。在非常低的分辨率代价体中计算视差的初步估计,然后模型通过使用紧凑的像素到像素细化网络的学习上采样函数分层地重新引入高频细节。利用颜色输入作为指南,该函数能够产生高质量的边缘感知输出,并在多个基准测试中取得了显着的结果,演示了所提出的方法在可接受的计算预算下提供了极大的灵活性。
Jul, 2018