多尺度几何一致性引导的多视角立体重建
本文介绍了一种新的方法,通过在学习过程中明确地鼓励多个源视图的参考视图深度图的几何一致性,加速学习过程,达到了 DTU 和 BlendedMVS 数据集的最新技术水平,并在 Tanks and Temples 基准上获得了有竞争力的结果。据我们所知,GC-MVSNet 是对多视图、多尺度几何一致性进行学习的第一次尝试。
Oct, 2023
本文介绍了一种基于 PatchMatch 算法的快速准确的 3D 密集重建方法 AMHMVS,采用不对称棋盘格传播策略,通过多假设联合视图选择来聚合多图像信息,实现了高精度和完整性密集重建。
May, 2018
提出了一种名为 GoMVS 的方法,通过几何一致的传播和聚合,以更好地利用相邻几何结构,从而使成本聚合更加准确和有效。在 DTU、Tanks & Temple 和 ETH3D 数据集上取得了最新的最高性能,特别是在 Tanks & Temple Advanced 基准测试上排名第一。
Apr, 2024
在本文中,我们提出了一种弹性且有效的多视角立体匹配方法(MP-MVS),该方法利用多尺度窗口 PatchMatch(mPM)获得非纹理区域的可靠深度,并通过改进的棋盘格采样方案和改进的平面先验辅助 PatchMatch(ACMP)来提高立体匹配的准确性和效率。
Sep, 2023
本文提出了一种新的多视图立体(MVS)深度图计算优先级方法,该优先级方法在 MVS 算法执行之前进行两步操作,包括寻找匹配伙伴并根据观测质量对结果进行排名,另外还使用了一种基于机器学习的信心预测器,能够对图像星座的质量进行评估,并提出一种优先级方法来构建稳固的三维重建基础,实验表明使用该方法能够在文化遗产保护和建造重建领域中达到更好的重建质量。
Mar, 2018
本文研究如何利用法线估计模型和预测的法线图提高深度质量,方法包括联合学习多视角法线估计和深度估计模块以及提出一种新的一致性损失来训练一个独立的一致性模块来细化深度 / 法线对。实验结果表明,该方法具有高精度、平滑等优点,在多个数据集上的表现均优于现有技术。
Nov, 2019
本文提出了一种新的方法,可以从动态场景的一组图像中合成任意视角和时间的图像,通过单视图深度(DSV)和多视图立体深度(DMV)的结合,重新估计视角和时间下的一致性和深度信息,从而精确的合成真实感极强的虚拟视图。
Apr, 2020
本文提出了一种基于平面先验辅助 PatchMatch 多视角立体视觉框架的方法,用于三维模型的恢复。实验证明,该方法可以高效地恢复极低纹理区域的深度信息,从而获得高度完整的三维模型并实现目前最佳性能。
Dec, 2019
本文提出了一种基于注意力机制多模态融合的层次结构深度图超分辨率网络,可以有效地从低分辨率深度图和高分辨率 RGB 图像中提取并组合有价值的特征以实现超分辨率重建。
Apr, 2021
通过使用双目输入,引进左右一致性损失函数,并提出一种保存边缘特征的损失函数来改善测试时训练中的深度模糊问题,提出了一种稠密的双目视频深度估计方法,调研结果表明该模型精度可靠。
May, 2023