PatchMatch-RL:利用像素级深度、法线和可见性的深度多视角重建
本文提出了首个利用极化线索进行 PatchMatch 多视角立体匹配(PolarPMS)的方法,该方法通过评估极化一致性来提高重建的三维模型的准确性和完整性,尤其是对于无纹理的表面。
Nov, 2023
本文提出了一种基于 PatchMatch 的方法来扩展可靠的深度估计,并根据纹理性质修改 Photo-Consistency 测量标准,同时提出了深度细化步骤,以在保留不连续性的同时填补深度图和法线图中的缝隙。
Mar, 2019
本文提出了一种基于平面先验辅助 PatchMatch 多视角立体视觉框架的方法,用于三维模型的恢复。实验证明,该方法可以高效地恢复极低纹理区域的深度信息,从而获得高度完整的三维模型并实现目前最佳性能。
Dec, 2019
本文基于学习的多视角立体 (MVS) 方法,采用匹配不确定性估计,将像素级遮挡信息显式地推理和集成到 MVS 网络中,从而抑制像素遮挡对成本聚合的不利影响,提高了 Vis-MVSNet 算法在严重遮挡场景中的深度精度。在 DTU、BlendedMVS 和 Tanks and Temples 数据集上进行了广泛实验证明了所提出算法的有效性。
Aug, 2020
本文提出一种有效的解决方案,利用光度立体测量和多视角立体测量的互补优势,通过基于不确定性感知的深光度立体网络和深多视角立体网络估计每像素表面法线和深度,从而实现密集、详细和精确的物体表面轮廓重建。
Feb, 2022
在本文中,我们提出了一种弹性且有效的多视角立体匹配方法(MP-MVS),该方法利用多尺度窗口 PatchMatch(mPM)获得非纹理区域的可靠深度,并通过改进的棋盘格采样方案和改进的平面先验辅助 PatchMatch(ACMP)来提高立体匹配的准确性和效率。
Sep, 2023
我们提出了 PatchmatchNet—— 一个快速且低内存占用的可学习的级联 Patchmatch 算法,用于高分辨率多视角立体匹配,通过引入可迭代的多尺度 Patchmatch 和自适应传播评估方案,我们改进了核心算法,并在 DTU,Tanks&Temples 和 ETH3D 上进行广泛实验,表明该方法在效率方面具有非常良好的性能和通用性,比现有的最佳模型快至少 2.5 倍,内存使用量减少一半。
Dec, 2020
提出了一种使用卷积神经网络直接对多个图像块进行匹配的方法,从而在计算机视觉中估算场景的深度图。实验表明,与基于成对块相似性的方法相比,该方法具有更好的效果。
Mar, 2017
我们提出了一种新颖的多视图光度立体(PS)方法,利用神经形状表示和学习渲染器,显式利用像素强度渲染,模拟每个点的入射辐照度并使用全神经材质渲染器进行优化,同时通过估计法线和分割图最大化表面精度,达到在距离为 1.5m、分辨率 400x400 的情况下,超过经典方法 DiLiGenT-MV 的平均 0.2mm 的沙耶缝距离,对低光计数场景的异常法线具有鲁棒性,使用像素渲染距离仅为 0.27mm。
May, 2024
本研究提出了一种新的平面假设推理策略,采用多假设生成和马尔可夫随机场选取深度假设的方法,显著提高了大规模场景重建的完整性和性能,在 ETH3D 公共基准测试中取得竞争性成果。
Apr, 2021