多视角立体下的自由视点室内神经光照重构
本文提出了一个称之为 Relighting4D 的结构化框架,通过神经网络分解人体的空间时间几何和反射属性为一组法线、遮挡、漫反射和镜面映射的神经场,进而进行基于物理的面部渲染且可自我学习。通过在真实和合成数据集上的广泛实验验证,我们的方法能够以自我监督学习的方式将人体演员的表演与其背景分离,实现无限可调的动态换背景。
Jul, 2022
本文介绍了如何使用完全卷积神经网络从单个未受控制的图像中恢复场景的形状,反射和照明。通过在包含丰富照明变化的图像上执行离线多视图立体(MVS)和学习统计自然照明先验,我们可以获得额外的监督,并在反渲染和其他基准测试中评估其性能。
Feb, 2021
本文提出了一种新颖的可重光的神经渲染器(RNR),可以使用多视图图像输入进行同时视图合成和重光。与现有的神经渲染(NR)不同,RNR 明确建模物理渲染过程,从而提高了调光的能力,并提高了视图合成的质量。对合成和真实数据的全面实验表明,RNR 为进行自由视点重光提供了实用有效的解决方案。
Nov, 2019
本文提出了一种新的方法,可以从自由分布在场景周围的输入图像中合成新视角的图像,不依赖于输入视角的规则排列,可以为场景中的自由相机运动合成图像,并适用于具有任意几何布局的通用场景,该方法通过 SfM 对输入图像进行校准并通过 MVS 建立一个粗略的几何支架,然后基于透视图创建一个代理深度图,进而利用循环编解码网络处理从附近视角重新投影的特征,并合成新视角。该网络不需要针对特定场景进行优化,通过数据集训练后,可以在之前看不到的环境中工作,本文的方法在 Tanks and Temples 等具有挑战性的现实世界数据集上进行了评估和实验证明,表现出色,大大优于之前和同时进行的工作。
Aug, 2020
通过使用图像扩散模型对输入图像进行重新照明,并利用这些重新照明的图像重建神经辐射场(NeRF),我们提出了一种更简单的方法来实现利用目标光照下的新视点渲染的三维表示,并在多个重新照明基准测试中取得了最新的结果。
Jun, 2024
本研究提出了一种新颖的神经隐式亮度表示方法,用于从一小组不规则的物体照片中进行自由视角重照。我们通过多层感知器将形状表示为有符号距离函数。与先前的隐式神经重照方法不同,我们没有分离不同的反射分量,而是通过第二个多层感知器在每个点上模拟局部和全局反射,并融合阴影和高光提示来辅助网络对应的高频光传输效果建模。在合成和真实场景中展示和验证了我们的神经隐式表示方法,这些场景具有各种形状、材料属性和全局光照传输。
Aug, 2023
本文探讨了一种基于神经光场表示的少样本新视角合成策略,其使用了隐式神经网络将光线映射到目标像素的颜色,且通过由由粗略体积渲染产生的本地光线特征来确定网络的条件。该方法使用 3D ConvNet 构建的输入图像的 3D 特征体积,实现了比现有的神经辐射场方法更加快速且在合成和真实的 MVS 数据上取得了竞争性的性能。
Jul, 2022
本文提出了一种分析 - 合成方法 Relit-NeuLF,通过使用两平面光场表示对 4D 坐标系统的每条光线进行参数化,以实现对复杂场景的同时重照和新视角合成;通过自监督学习方法,该方法能够恢复三维场景的空间变化的双向反射分布函数(SVBRDF);通过将每条光线映射到其 SVBRDF 组成部分(漫反射、法线和粗糙度)以及灯光方向的条件,实现光线颜色的合成;综合实验证明,该方法在合成数据和真实世界人脸数据上都具有高效和有效的性能,并且优于最先进的结果。
Oct, 2023
在本文中,我们通过使用一组可重新照明的 3D 高斯点来表示点光源照亮的场景,提出了一种新方法。受到 Blinn-Phong 模型的启发,我们的方法将场景分解为环境、漫反射和镜面三个组成部分,实现了逼真的照明效果合成。为了促进与光照条件无关的几何信息的分解,我们引入了一种基于双层优化的元学习框架。基本思想是将各个光照位置下的渲染任务视为多任务学习问题,我们的元学习方法通过在不同视点和不同光照位置中泛化学习到的高斯几何形状,有效地解决了这一问题。实验证明,与现有的自由视点重新照明方法相比,我们的方法在训练效率和渲染质量方面具有较高的效果。
May, 2024
通过使用完全卷积神经网络,我们展示了如何从单幅未受控制的图像执行反渲染。我们的网络使用大型未受控制的图像集进行训练,并通过引入可微分渲染器来进行自监督学习。同时,我们还通过学习一个统计的自然照明先验和离线多视图立体成像来提供额外的监督。这是第一次尝试使用多视图立体成像监督学习反渲染。
Nov, 2018