该论文通过使用卷积神经网络预测图像之间匹配的好坏,进而计算立体匹配代价,再通过交叉基准代价聚合、半全局匹配和左右一致性检查(LRC)来消除遮挡区域中的错误,从而获得了较低的误差率。该方法在KITTI立体数据集上达到了2.61%的误差率,并且是该数据集上目前(2014年8月)表现最好的方法。
Sep, 2014
本研究基于卷积神经网络为计算视差匹配的成本聚合,并针对KITTI2012、KITTI2015和Middlebury立体数据集对该方法进行了验证,结果表明其在所有三个数据集上优于其他方法。
Oct, 2015
本论文提出了一种基于卷积神经网络的方法,能够从立体输入中学习计算密集的视差图,使用图像变形误差作为损失函数,无需地面真实的视差图。该方法经过在KITTI和Middlebury立体基准数据集上的实验,证明优于许多现有技术并且速度更快。
Sep, 2017
本论文提出了一种针对卷积神经网络在新领域上泛化能力不佳的自适应训练方法,结合了合成数据和部分无标注实际数据。通过图拉普拉斯正则化的迭代优化问题求解,让CNN能够根据新领域的实际数据自适应地调整自身参数,在保持边缘的同时消除伪像,实现在两个场景中的高效应用。
Mar, 2018
本文提出一种基于传统匹配成本的快速深度估计网络,该网络仅使用每个像素和二维卷积操作来总结每个位置的匹配信息,并以低维特征向量的形式生成密集的视差图,在保证准确度的同时,相较于其他算法显著加快了处理速度。
Mar, 2019
本论文提出了一种新的导向立体匹配方法,利用来自外部源的少量稀疏但可靠的深度测量来提高现有深度学习模型在处理新环境时的准确性和鲁棒性,并证明此方法适用于传统的立体匹配算法,并且即使只输入少量稀疏数据,对现有模型的性能也有显著提升。
May, 2019
该研究综述了基于深度学习的立体视觉对图像深度估计的应用,总结了该领域的常见流程、优缺点并探讨了未来可能的方向。
Jun, 2020
该研究介绍了一种基于单目深度估计,使用错误匹配视差地图训练立体匹配网络的方法,无需真实深度或手动设计人工数据即可将任何RGB图像列表转换为立体训练数据,并在KITTI、ETH3D和Middlebury等数据集上表现出色。
Aug, 2020
我们引入了立体风险(Stereo Risk)这一新的深度学习方法来解决计算机视觉中的经典立体匹配问题,通过连续风险最小化问题将场景视差建模为一种最优解,我们证明了所提出的连续风险函数的$L^1$最小化对于深度网络的立体匹配性能提升具有显著效果,并通过各种基准数据集的全面分析证明了我们的方法在理论上的有效性和在性能上优于现有的方法。
Jul, 2024
立足于深度学习技术,本研究论文通过深度对比匹配最新发展的深度评估和分析,聚焦于具有开创性的架构设计和突破性范例的研究,同时对出现的挑战进行全面分析并提供技术方案,从而全面了解深度对比匹配所需进一步探索的领域。