偏振 PatchMatch 多视图立体匹配
本文提出了一种基于平面先验辅助 PatchMatch 多视角立体视觉框架的方法,用于三维模型的恢复。实验证明,该方法可以高效地恢复极低纹理区域的深度信息,从而获得高度完整的三维模型并实现目前最佳性能。
Dec, 2019
在本文中,我们提出了一种弹性且有效的多视角立体匹配方法(MP-MVS),该方法利用多尺度窗口 PatchMatch(mPM)获得非纹理区域的可靠深度,并通过改进的棋盘格采样方案和改进的平面先验辅助 PatchMatch(ACMP)来提高立体匹配的准确性和效率。
Sep, 2023
本文提出了一种基于强化学习的端到端可训练 PatchMatch 多视角立体视觉方法,实现像素级别深度、法向量的估计,并将其与可训练损失和正则化相结合以解决在深度范围大、视角差距大的场景下的深度估计问题。实验结果表明,该方法在 ETH3D 数据集上表现优异,甚至超过其他最新的基于学习的 MVS 模型。
Aug, 2021
本文提出一种有效的解决方案,利用光度立体测量和多视角立体测量的互补优势,通过基于不确定性感知的深光度立体网络和深多视角立体网络估计每像素表面法线和深度,从而实现密集、详细和精确的物体表面轮廓重建。
Feb, 2022
本文提出了一种基于 PatchMatch 的方法来扩展可靠的深度估计,并根据纹理性质修改 Photo-Consistency 测量标准,同时提出了深度细化步骤,以在保留不连续性的同时填补深度图和法线图中的缝隙。
Mar, 2019
本文介绍了一种基于 PatchMatch 算法的快速准确的 3D 密集重建方法 AMHMVS,采用不对称棋盘格传播策略,通过多假设联合视图选择来聚合多图像信息,实现了高精度和完整性密集重建。
May, 2018
本研究提出了一种新的平面假设推理策略,采用多假设生成和马尔可夫随机场选取深度假设的方法,显著提高了大规模场景重建的完整性和性能,在 ETH3D 公共基准测试中取得竞争性成果。
Apr, 2021
本文介绍了一种名为极化多视角反渲染的三维重建方法,该方法通过利用输入的多视颜色极化图像所提取的几何、光度和极化线索,可有效地优化光度反演,并充分考虑备选的方位角度信息来估计每个表面顶点的法向量,从而实现了对物体精细的三维重建。
Jul, 2020
我们提出了一个快速且通用的解决多视图光度立体 (MVPS) 问题的方法,称为 MVPSNet。我们的方法通过一个特征提取网络有效地结合同一视图下不同光照条件下的图像,从阴影线索中提取几何特征用于立体匹配。我们通过介绍一种新的人工合成数据集 sMVPS 来训练我们的方法,并展示了在纹理缺失区域中提取特征的有效性。结果表明,我们的方法的重建结果与一个最先进的 MVPS 方法 PS-NeRF 相似,但推理速度快 411 倍(105 秒与 12 小时),具有一般化的可训练能力。
May, 2023
本文提出了一种名为 PlaneMVS 的新型框架,用于从具有已知相机姿态的多个输入视图中重建 3D 平面。采用多视角几何的 MVS 流水线将平面重建解耦,采用倾斜平面假设来取代传统深度假设并最终学习像素级平面参数及其平面深度图。通过大量室内数据集的实验表明,PlaneMVS 在平面检测和 3D 几何度量上显著优于最先进的单视角平面重建方法。
Mar, 2022