Jan, 2024
基于GAN和扩散的GD^2-NeRF:一次性通用的神经辐射场生成细节补偿
GD^2-NeRF: Generative Detail Compensation via GAN and Diffusion for
One-shot Generalizable Neural Radiance Fields
TL;DR本研究着重于一次全新视图合成(O-NVS)任务,目标是在每个场景只给定一张参考图像的情况下合成逼真的新视图。提出了一种使用 GAN 和扩散的生成性细节补偿框架 GD^2-NeRF,该框架在推理时不需要微调,并且具有生动逼真的细节。