使用二维卷积处理代价签名的快速深度立体匹配
该论文通过使用卷积神经网络预测图像之间匹配的好坏,进而计算立体匹配代价,再通过交叉基准代价聚合、半全局匹配和左右一致性检查(LRC)来消除遮挡区域中的错误,从而获得了较低的误差率。该方法在KITTI立体数据集上达到了2.61%的误差率,并且是该数据集上目前(2014年8月)表现最好的方法。
Sep, 2014
本研究基于卷积神经网络为计算视差匹配的成本聚合,并针对KITTI2012、KITTI2015和Middlebury立体数据集对该方法进行了验证,结果表明其在所有三个数据集上优于其他方法。
Oct, 2015
本论文提出了一种针对卷积神经网络在新领域上泛化能力不佳的自适应训练方法,结合了合成数据和部分无标注实际数据。通过图拉普拉斯正则化的迭代优化问题求解,让CNN能够根据新领域的实际数据自适应地调整自身参数,在保持边缘的同时消除伪像,实现在两个场景中的高效应用。
Mar, 2018
在自动驾驶车辆的背景下,本文重新审视视觉深度估计问题。我们提出了一种新颖的半监督学习方法来训练深度立体神经网络,并提出了一种包含机器学习的argmax层和定制运行时的体系结构,可在嵌入式GPU上运行一个较小版本的我们的Stereo DNN。在KITTI 2015立体数据集上展示了有竞争力的结果。
Mar, 2018
提出了实用深层立体(PDS)网络,使用瓶颈模块和新的子像素交叉熵损失和MAP估计器,使其具有更小的内存占用,可处理更大的图像,且不需要重新训练就可适用于任何视差范围,从而在FlyingThings3D和KITTI数据集上取得了优越性能。
Jun, 2018
提出了StereoNet,这是第一个端到端实时立体匹配的深度学习架构,在NVidia Titan X上以60fps运行,产生高质量,边缘保留且无量化的视差图。 该网络具有超像素匹配精度的关键洞见,比传统立体匹配方法高一个数量级,通过使用低分辨率代价体编码所需的所有信息,从而实现实时性。采用学习的边缘感知上采样函数实现空间精度,并使用Siamese网络从左右图像提取特征。在非常低的分辨率代价体中计算视差的初步估计,然后模型通过使用紧凑的像素到像素细化网络的学习上采样函数分层地重新引入高频细节。利用颜色输入作为指南,该函数能够产生高质量的边缘感知输出,并在多个基准测试中取得了显着的结果,演示了所提出的方法在可接受的计算预算下提供了极大的灵活性。
Jul, 2018
该研究介绍了一种基于单目深度估计,使用错误匹配视差地图训练立体匹配网络的方法,无需真实深度或手动设计人工数据即可将任何RGB图像列表转换为立体训练数据,并在KITTI、ETH3D和Middlebury等数据集上表现出色。
Aug, 2020
本文回顾了十多年来用于立体匹配置信度估计的算法和策略,并评估了现有的置信度估计方法,包括手工设计的和最新的基于学习的方法,在五个标准数据集上进行实验,并首次将一个最先进的深度立体网络与置信度测量技术配对进行比较,旨在提供该领域的全面概述,并突出了基于学习的方法的优势和局限性。
Jan, 2021
立足于深度学习技术,本研究论文通过深度对比匹配最新发展的深度评估和分析,聚焦于具有开创性的架构设计和突破性范例的研究,同时对出现的挑战进行全面分析并提供技术方案,从而全面了解深度对比匹配所需进一步探索的领域。
Jul, 2024