Feb, 2024

通过布局学习实现解耦的 3D 场景生成

TL;DR我们介绍了一种通过大型预训练的文本到图像模型实现对三维场景进行解缠的方法。我们的关键观点是,通过重新排列具有空间先验的三维场景的部分,可以发现物体的存在,并且这些重排后的场景仍然是原场景的有效配置。具体而言,我们的方法从头开始联合优化多个 NeRFs,每个 NeRF 代表一个物体,以及一组将这些物体合成为场景的布局。然后,我们鼓励这些合成的场景在图像生成器中符合分布。我们展示了尽管简单,我们的方法成功地生成了分解为个体物体的三维场景,从而在文本到三维内容创建中实现了新的功能。请参阅我们的项目页面,查看更多结果和交互式演示。