神经延迟着色的多视角网格重建
本文介绍一种神经网络架构,通过联合学习未知几何形状、相机参数和神经渲染器,能够高质量、高精度、高细节地实现多角度 3D 表面重建。该方法通过零级集的神经网络表示几何形状,并采用基于渲染方程的神经渲染器来预测表面上的光的反射情况,具有广泛的光照和材质建模能力。
Mar, 2020
本文提出了一种综合的神经方法,用于从密集的多视角视频中重建、压缩和渲染人类表演。该方法桥接了传统的动画网格工作流和一类高效的神经技术,其中包括神经表面重构器和混合神经跟踪器,并实现了各种带宽设置下的从动态纹理到光图渲染的渲染方案,展示了其在各种网格应用和各种平台的逼真自由视点体验中的有效性。
Sep, 2022
本文提出了一种通过近似合成分析的方法来训练神经网络,利用可变形网格模型来优化图像与三维模型之间的关系,从而实现对数据的稳健泛化,本方法在测试集中表现良好,尤其在数据分布不均时表现更优。
May, 2023
从单视图图像重建详细的 3D 场景仍然是一项具有挑战性的任务,我们提出了一种新颖的框架,用于从单视图图像中同时高保真地恢复物体形状和纹理。我们的方法利用了提出的单视图神经隐式形状和辐射场 (SSR) 表示,利用显式的 3D 形状监督和颜色、深度和表面法线图的体素渲染,克服了部分观测下形状和外观的模糊性,同时支持从新视点渲染图像。除了个体物体,我们的方法还支持将物体水平的表示组合成灵活的场景表示,从而实现了整体场景理解和 3D 场景编辑等应用。我们进行了大量实验证实了我们方法的有效性。
Nov, 2023
本文提出了一种简便的多视角图像观察下拓扑、材料和照明的联合优化方法,通过不同 iable rendering、基于坐标的网络紧凑地表示体积纹理,并在表面网格上直接进行梯度优化,最后介绍了一种环境光的差异化公式,证明了我们的模型可以用于场景编辑、材料分解和高质量视图插值,在三角形渲染器(光栅化器和路径跟踪器)中以交互速率运行。
Nov, 2021
通过引入 Deferred Neural Rendering 和 Neural Textures,本文提出一种新的渲染模型,可以快速准确地合成出高质量的视觉效果,即使输入的 3D 内容不完整嘈杂,同时可以在多个应用领域内进行使用,例如在新颖的视角合成,场景编辑和面部复制等方面。
Apr, 2019
该论文提出了一种称为 FastMESH 的有效的基于网格的神经渲染方法,通过采用六边形网格模型以及基于粗到细的空间切割方案,可以在快速训练的同时,实现更好的重建和新视角合成效果。
May, 2023
从自然二维图像中恢复现实世界物体的形状和外观是一个长期存在且具有挑战性的逆渲染问题。本文介绍了一种新颖的混合可微渲染方法,能够从传统手持相机捕捉的多视图图像中高效重构场景的三维几何和反射率。我们的方法采用分析与合成的方法,分为两个阶段。在初始化阶段,我们使用传统的 SfM(结构光型三维重建)和 MVS(多视角立体匹配)方法来大致重建与实际场景相匹配的虚拟场景。然后,在优化阶段,我们采用混合方法来优化几何和反射率,其中几何首先使用近似可微渲染方法进行优化,然后再使用基于物理的可微渲染方法优化反射率。我们的混合方法将近似方法的效率与基于物理的方法的高质量结果结合起来。对合成和真实数据进行的大量实验证明,我们的方法在更高效的同时能够产生与最先进方法相似或更高质量的重建结果。
Aug, 2023
我们提出了一种从由 360 度校准相机组拍摄的一组稀疏视图中重建 3D 物体的新方法。我们通过混合模型,使用基于 MLP 的神经表示和三角形网格,表示对象表面。我们工作的一个关键贡献是一种新颖的以对象为中心的神经表示采样方案,其中的光线在所有视图之间共享。这种采样方案通过网格表示确保样本沿法线方向分布均匀。然后,通过可微分的渲染器高效地进行渲染。我们证明了这种采样方案能更有效地训练神经表示,不需要额外的分割蒙版的监督,能获得最先进的 3D 重建结果,并且适用于 Google 的 Scanned Objects、Tank and Temples 和 MVMC Car 数据集的稀疏视图。
Sep, 2023
利用单视图图像下不同点光源捕捉来学习神经场景表示,利用阴影和明暗等单目线索推断场景几何,并学习神经反射场,用于代表场景 3D 几何和 BRDF。实验表明,该方法能够从单视图图像中恢复场景的 3D 几何,包括可见和不可见部分,适用于新视角合成和再照明等应用。
Oct, 2022