学习新视角的风格化
本文提出了一个深度模型,在场景的点云表示中学习基于几何感知的内容特征,以生成高质量且在视图上具有一致性的艺术化图像,从而实现了从单个图像到任意风格化图像的 3D 照片艺术化生成,并在定性和定量研究中展示了方法的优越性。
Nov, 2021
本文提出了一种基于 Neural Radiance Fields 的 3D 场景风格化方法,包括了使用超网络将样式信息转移入场景表示、使用隐式表示模型将场景分离成几何和外观分支,并采用两阶段训练和修补子采样方法优化模型以在任意视角生成具有所需风格的场景。
May, 2021
介绍了一种用于单个广角立体图像对的新视角合成的方法,包括 3D 场景重构和外观变化的先验模型,提出了一种多视角变换编码器、图像上的极线采样方案和轻量级交叉注意力渲染器,通过大规模实际数据集的训练,证明了模型学习到了强大的多视角几何先验,大大缩短了渲染时间,并在两个实际数据集上得到了显著的优越性能。
Apr, 2023
使用基于扩散的模型,结合现有的二维扩散骨架和三维特征体,进行三维感知的图像生成,同时具备自回归生成 3D 一致的序列能力。在合成渲染图像和实际物体上展示了最先进的效果。
Apr, 2023
本文提出了一种利用场景 3D 几何信息进行新视角生成的方法,通过学习区域感知几何转换网络实现输入图像到目标视角的变换,并在 KITTI 和 ScanNet 数据集上取得了优于现有方法的高质量生成效果。
Apr, 2018
本文提出了一种通用的视图综合方法,其中可以修改渲染视图的视觉外观以匹配目标天气或照明条件,该方法基于通用的变压器架构,在不同的外观条件下训练了合成生成的场景,从而实现了对未包含在训练集中的 3D 场景的新颖视图的一致呈现,包括(i)修改它们的外观以匹配目标条件和(ii)在不同条件之间平滑插值。
Jun, 2023
通过结合建模和优化对象的纹理和环境光照,本论文提出了一个框架,使得现有的 3D 资源能够适应给定的 2D 场景,同时生成一种真实感的组合效果,使得假定的对象能够放入该环境中。
Dec, 2023
本文研究了从稀疏源观测中合成新视角的问题,提出了一种简单而有效的方法,通过将观测编码到体积表示中进行摊销渲染,并通过自我监督信号实现了对 3D 几何的有效学习。
Jul, 2021
本文提出了一种从单个 RGBD 输入合成新视角图像的方法,通过利用 RGBD 图像中嵌入的深度信息,将 NVS 任务转换成图像转换问题,并使用生成对抗网络实现类似于从新视角拍摄的照片的结果,而不受传统多图像技术的限制。
Nov, 2023