高性能可调节的立体重建
提出了立体直接稀疏测距(Stereo DSO)作为一种新的方法,用于从立体相机中高精度实时估计大型环境的视觉测距,尤其是通过采样图像区域中具有足够强度梯度的像素实现实时优化和固定基线三维重建。
Aug, 2017
提出了StereoNet,这是第一个端到端实时立体匹配的深度学习架构,在NVidia Titan X上以60fps运行,产生高质量,边缘保留且无量化的视差图。 该网络具有超像素匹配精度的关键洞见,比传统立体匹配方法高一个数量级,通过使用低分辨率代价体编码所需的所有信息,从而实现实时性。采用学习的边缘感知上采样函数实现空间精度,并使用Siamese网络从左右图像提取特征。在非常低的分辨率代价体中计算视差的初步估计,然后模型通过使用紧凑的像素到像素细化网络的学习上采样函数分层地重新引入高频细节。利用颜色输入作为指南,该函数能够产生高质量的边缘感知输出,并在多个基准测试中取得了显着的结果,演示了所提出的方法在可接受的计算预算下提供了极大的灵活性。
Jul, 2018
本文提出一种基于传统匹配成本的快速深度估计网络,该网络仅使用每个像素和二维卷积操作来总结每个位置的匹配信息,并以低维特征向量的形式生成密集的视差图,在保证准确度的同时,相较于其他算法显著加快了处理速度。
Mar, 2019
我们提出了一种端到端的框架,通过逐层搜索相应关系来解决高分辨率图像上的实时立体匹配问题,利用所提出的数据集进行训练和评估并在速度上超过竞争对手 ,能够在低延迟(30毫秒)内准确预测近距离结构的视差,所提出的层次结构设计可以灵活地平衡性能与速度,用于自动驾驶等时间关键的应用。
Dec, 2019
本文采用最大后验概率方法将低分辨率深度数据与高分辨率立体数据相结合,通过层次求解一系列局部能量最小化问题来产生深度图。通过新的相关函数、自适应成本聚合步骤以及基于场景纹理和摄像机几何的自适应融合方法,提出了一种精度更高的种子生长方法,避免了传播错误视差的倾向。该方法是高效的,可在标准台式计算机上以3 FPS的速度运行,并通过与现有方法的定量比较和实际深度-立体数据集的定性比较,证明了其强大的性能。
Dec, 2020
通过TOF-立体相机配对的数据融合方法,提出了一种通过种子生长算法和Bayesian模型相结合的方法,以更高的分辨率提供精确的深度图,用于导航和其他机器人应用。
Jul, 2021
该研究提出了一种基于主动门控立体图像的高分辨率和长距离深度估计技术-Gated Stereo,该技术利用主动和高动态范围的被动捕获,利用多视图线索以及来自主动门控的飞行时间强度线索。其中,该研究提出了一种通过单目和立体深度预测分支组合的深度估计方法,并且每个块都通过监督和门控自监督损失进行监督, 并为汽车场景获取了一种长距离同步门控立体数据集。该方法的性能比最佳RGB立体方法提高了50%以上的MAE,并比现有的单目门控方法在距离160米内的距离范围内提供了74%的MAE。
May, 2023
本研究针对3D重建领域的有效性和复杂性问题进行了综述,特别关注基于深度学习的多视图立体视觉(MVS)方法。文章系统梳理了不同类型的学习方法,并着重探讨了深度图基础方法的优势和未来研究方向,强调其在图像重建中的潜在影响和应用前景。
Aug, 2024
本研究针对基于事件的立体深度估计领域中的信息不对称和方法多样性问题,提供了一次全面的综述。论文首次系统性审视了深度学习方法以及立体数据集,提出实用建议以创建新的基准,促进该领域的发展。尽管已有显著进展,但在准确性和效率方面仍需努力,本文指明了研究中的若干空白,为未来研究方向提出建议。
Sep, 2024