深度 RNN 在开放世界立体视频匹配中的应用
本研究提出了一种利用循环神经网络和多视图图像重投影以及前向 - 后向流一致性损失来训练的学习型多视图稠密深度地图和里程计估计方法,可用于视频的深度和视觉里程计估计,产生优于现有技术的单视图和多视图深度估计结果。
Apr, 2019
通过将扩散模型融入迭代优化过程中,我们提出了一种新的训练方法,采用时间驱动的门控循环单元(T-GRU)和基于注意力的上下文网络,用于改进基于迭代的立体匹配,并在多个公共基准上实现了有竞争力的性能。在 Scene Flow 数据集中,我们的模型排名第一,与竞争方法相比,改善了超过 7%,而且只需 8 次迭代即可实现最先进的结果。
Apr, 2024
本研究利用卷积神经网络等技术,提出一套创新方案解决智能手机等消费级设备拍摄的真实图像对中,提取深度信息的问题,并在 Middlebury 和 ETH3D 基准测试上表现出高准确性和高质量的细节。
Mar, 2022
本论文提出了一种基于卷积神经网络的方法,能够从立体输入中学习计算密集的视差图,使用图像变形误差作为损失函数,无需地面真实的视差图。该方法经过在 KITTI 和 Middlebury 立体基准数据集上的实验,证明优于许多现有技术并且速度更快。
Sep, 2017
本文介绍了一种基于 ConvLSTM 和三种不同类型深度预测网络的自监督实时单目深度估计和完成方法,能够产生一系列的深度图,该方法灵活且可与不同类型稀疏深度图案件组合使用,实验表明,我们的方法在自监督场景中始终优于其基于图像的对应方法,并且在三个流行组的深度预测方法中也表现出更好的性能。
Jan, 2020
本论文提出了一种针对卷积神经网络在新领域上泛化能力不佳的自适应训练方法,结合了合成数据和部分无标注实际数据。通过图拉普拉斯正则化的迭代优化问题求解,让 CNN 能够根据新领域的实际数据自适应地调整自身参数,在保持边缘的同时消除伪像,实现在两个场景中的高效应用。
Mar, 2018
本文提出一种新颖的循环神经网络(循环 RNN),通过递归地查看两个图像的特定 / 相关部分并在最终迭代中输出综合匹配分数,从而聚合两个输入图像的关系信息。在几个图像匹配基准测试中进行的大量实验证明了所提出方法的巨大潜力。
Jun, 2017
提出一种 Modularly ADaptive Network (MADNet) 架构和 Modular ADaptation (MAD, MAD ++) 算法设计,实现在不同环境下对深度估计进行实时自适应的端到端架构,无需与输入图像不同的数据源。
Jul, 2020
通过采用 Modularly ADaptive Network (MADNet) 和 Modular ADaptation (MAD) 算法,本文提出了一种具有实时自适应功能的深度立体系统,能够在异构数据集上实现卓越的性能表现。
Oct, 2018