Jun, 2024

GenS:多视角图像的通用神经表面重建

TL;DR我们提出了 GenS,一个端到端的通用神经表面重建模型,可以通过结合有符号距离函数(SDF)和可微体渲染,将多视图图像无需 3D 监督进行表面重建。与现有解决方案相比,我们的表示更强大,能够恢复高频细节并同时保持全局平滑性。同时,我们引入多尺度特征度量一致性,以在更具区分性的多尺度特征空间中施加多视图一致性,从而抵抗光度一致性的失效。我们还设计了一种视角对比损失,通过将密集输入中的几何先验精炼到稀疏输入中,强制模型对少视角覆盖的区域具有鲁棒性。在流行的基准测试上进行的大量实验证明,我们的模型能够很好地推广到新场景,并且胜过现有的最先进方法,即使那些使用地面真实深度监督的方法。