Nov, 2022

RenderDiffusion:用于3D重建、修补与生成的图像扩散

TL;DR本文提出了RenderDiffusion,这是第一个用于3D生成和推断的扩散模型,使用仅有的单眼2D监督进行训练,并采用新颖的图像去噪架构进行中间的三维表示,以提供强烈归纳结构,同时仅需要2D监督。我们在FFHQ、AFHQ、ShapeNet和CLEVR数据集上评估了RenderDiffusion,展示了生成3D场景和从2D图像中推理3D场景的竞争性表现。此外,我们的扩散型方法还使我们能够使用2D修复来编辑3D场景。