Dec, 2022

3D-TOGO: 面向文本引导的跨类别 3D 物体生成

TL;DR该研究旨在通过新的 3D-TOGO 模型实现通用的基于文本的跨类别的 3D 对象生成。其中包括文本到视图的生成模块和视图到 3D 对象的生成模块,前者可以生成目标 3D 对象的不同视图,后者采用 pixelNeRF 模型从预先生成的视图中获取隐式 3D 神经表示。该模型表现出更好的视图一致性和字幕相似性,能够根据输入文本生成具有良好纹理和无需逐个优化的 3D 对象,并能控制生成的对象的类别、颜色和形状。在最大的 3D 物体数据集(即 ABO)上进行了广泛的实验验证,证明了 3D-TOGO 相比 text-NeRF 和 Dreamfields 能够更好地生成高质量的 3D 对象。