基于平面先验辅助的 PatchMatch 多视角立体匹配
在本文中,我们提出了一种弹性且有效的多视角立体匹配方法(MP-MVS),该方法利用多尺度窗口 PatchMatch(mPM)获得非纹理区域的可靠深度,并通过改进的棋盘格采样方案和改进的平面先验辅助 PatchMatch(ACMP)来提高立体匹配的准确性和效率。
Sep, 2023
本文提出了首个利用极化线索进行 PatchMatch 多视角立体匹配(PolarPMS)的方法,该方法通过评估极化一致性来提高重建的三维模型的准确性和完整性,尤其是对于无纹理的表面。
Nov, 2023
本文提出了一种基于 PatchMatch 的方法来扩展可靠的深度估计,并根据纹理性质修改 Photo-Consistency 测量标准,同时提出了深度细化步骤,以在保留不连续性的同时填补深度图和法线图中的缝隙。
Mar, 2019
本研究提出了一种新的平面假设推理策略,采用多假设生成和马尔可夫随机场选取深度假设的方法,显著提高了大规模场景重建的完整性和性能,在 ETH3D 公共基准测试中取得竞争性成果。
Apr, 2021
本文提出了一种基于强化学习的端到端可训练 PatchMatch 多视角立体视觉方法,实现像素级别深度、法向量的估计,并将其与可训练损失和正则化相结合以解决在深度范围大、视角差距大的场景下的深度估计问题。实验结果表明,该方法在 ETH3D 数据集上表现优异,甚至超过其他最新的基于学习的 MVS 模型。
Aug, 2021
本文提出了一种名为 PlaneMVS 的新型框架,用于从具有已知相机姿态的多个输入视图中重建 3D 平面。采用多视角几何的 MVS 流水线将平面重建解耦,采用倾斜平面假设来取代传统深度假设并最终学习像素级平面参数及其平面深度图。通过大量室内数据集的实验表明,PlaneMVS 在平面检测和 3D 几何度量上显著优于最先进的单视角平面重建方法。
Mar, 2022
本文介绍了一种基于 PatchMatch 算法的快速准确的 3D 密集重建方法 AMHMVS,采用不对称棋盘格传播策略,通过多假设联合视图选择来聚合多图像信息,实现了高精度和完整性密集重建。
May, 2018
本研究使用深度学习等技术,提出了一个基于点到表面距离的补丁感知(patch-awared)多视角立体重建(multi-view stereo)方法,能够更好地重建纹理缺失区域和表面边界,并且经过实验证明,在 DTU 和 Tanks & Temples 数据集上达到了最佳重建效果。
Apr, 2023
本文提出一种有效的解决方案,利用光度立体测量和多视角立体测量的互补优势,通过基于不确定性感知的深光度立体网络和深多视角立体网络估计每像素表面法线和深度,从而实现密集、详细和精确的物体表面轮廓重建。
Feb, 2022
Point-MVSNet 是用 point clouds 直接处理目标场景的深度学习网络,通过将 3D 几何先验和 2D 纹理信息融入特征增强的 point cloud 中,实现了在 multi-view stereo 中更高的精度、更高的计算效率和更大的灵活性。
Aug, 2019