Jun, 2024
DIRECT-3D: 基于大规模噪声三维数据的直接文本到三维生成学习
DIRECT-3D: Learning Direct Text-to-3D Generation on Massive Noisy 3D
Data
TL;DRDIRECT-3D是一种基于扩散的三维生成模型,从文本提示中创建高质量的三维资产(由神经辐射场表示);通过直接在大规模无序三维资产上训练,同时过滤和对齐噪声数据,使用迭代优化的扩散过程估计物体的三维姿势并选择有益数据,并通过两个条件性扩散模型实现分离对象几何和颜色特征的高效三维表示;模型能在几秒内生成具有准确几何细节的高质量、高分辨率、逼真而复杂的三维对象,并在单类别生成和文本到三维生成方面达到最先进的性能。