重新思考视差:基于视差的深度范围无关多视角立体匹配
本文提出 DS-MVSNet,一种端到端的无监督多视点结构,并通过 Adaptive Gaussian Sampling 和 Improved Adaptive Bins Sampling 等方法来提高深度假设的准确性。同时,我们利用源深度来渲染参考图像,并提出了深度一致性损失和深度平滑性损失来提供额外的指导。最后,通过在 DTU 数据集和 Tanks&Temples 数据集上的一系列实验证明了我们的方法相对于现有方法的效率和稳健性。
Aug, 2022
该研究提出了一种新颖的多阶段粗到细的框架,用于实现自适应全像素深度范围和深度间隔的多视图立体重建,通过预测粗糙深度图、自适应深度范围预测和自适应深度间隔调整模块,可以实现更准确的深度估计。实验结果表明该模型在多个基准数据集上取得了最先进的性能,并具备较强的泛化能力。
Aug, 2023
本文提出了一种既节省时间又节省内存的立体成像方法,该方法在几何和语境的渐进细化尺度中构建标准的特征金字塔下的代价体,随着不断增加的代价体分辨率以及深度(或差异)间隙的自适应调整,以较粗糙的方式从粗到细恢复输出。
Dec, 2019
本论文提出了一种基于 RayMVSNet 的多视角深度学习,通过直接优化沿每个摄像头光线的深度值来降低了计算和存储的成本,其处理基于转换器特征进行的串行建模是传统多视角立体匹配的重要方法,并且在 DTU 和 Tanks & Temples 数据集上的评估结果表明其优于之前所有的学习方法。
Apr, 2022
Point-MVSNet 是用 point clouds 直接处理目标场景的深度学习网络,通过将 3D 几何先验和 2D 纹理信息融入特征增强的 point cloud 中,实现了在 multi-view stereo 中更高的精度、更高的计算效率和更大的灵活性。
Aug, 2019
DeepMVS 是一种用于多视图立体重建的深度卷积神经网络 (ConvNet),它可以对任意数量的姿态图像进行处理以预测高质量的视差图,其有效的信息聚合方法和采用 VGG-19 网络的多层特征激活实现了优异的效果。
Apr, 2018
本文介绍了一种基于无监督学习的多视图深度图像学习方法,可以从多个视角的输入图像中学习深度和遮挡图像,并在训练和测试阶段都强制实施多视图深度一致性,进而为实际场景下处理遮挡提供更好的鲁棒性。
Aug, 2019
该研究提出了一种基于 interest point detection 和 descriptor learning 的深度估计方法,通过三个步骤,匹配、三角测量和稠密化得到 3D 点云,实现了高精度和低计算消耗的双赢,将该方法与强基线进行对比,表现优越。
Mar, 2020
本文提出了一种用于计算多视图深度图的端到端深度学习框架 (MVSNet),首先提取深度视觉图像特征,然后利用不同 iable homography 变形构建 3D 成本体积,并使用 3D 卷积对初始深度图进行规则化和回归,最终与参考图像相结合生成最终输出,其通过引入基于方差的成本度量来适应任意 N-view 输入, 其表现优于现有同类方法并能很好地泛化于室内室外数据。
Apr, 2018
本文基于学习的多视角立体 (MVS) 方法,采用匹配不确定性估计,将像素级遮挡信息显式地推理和集成到 MVS 网络中,从而抑制像素遮挡对成本聚合的不利影响,提高了 Vis-MVSNet 算法在严重遮挡场景中的深度精度。在 DTU、BlendedMVS 和 Tanks and Temples 数据集上进行了广泛实验证明了所提出算法的有效性。
Aug, 2020