SweetDreamer:对齐2D扩散中的几何先验以实现一致性的文本到3D
借助Viewset Diffusion框架,可以从2D数据中训练图像条件化的3D生成模型,从而解决单视图3D重建中的歧义问题,并通过对多视图图像集的去噪扩展了3D真实数据的可用性,通过仅渲染3张图片,我们的模型可以执行3D生成和单视图重建。
Jun, 2023
通过结合三维几何先验和二维扩散先验,GeoDream方法能够生成具有一致的三维几何结构的文本到三维模型,并提供更高分辨率、真实感的渲染和更好的语义一致性。
Nov, 2023
Sherpa3D是一种新的文本到3D框架,可以同时实现高保真度、泛化能力和几何一致性,通过利用粗糙的3D先验信息设计一对引导策略,即几何保真度引导和3D一致性语义引导,从而使2D离散模型丰富了3D内容,产生多样且高质量的结果。
Dec, 2023
Carve3D是一种RL finetuning方法,结合了Multi-view Reconstruction Consistency指标,用于改进多视角扩散模型的一致性并提升NeRF重建质量。
Dec, 2023
使用稀疏射线采样方法通过关键点监督,实现了在当前管道中显式注入来自检索参考对象的3D先验,以确保高质量和多样化的3D几何,同时保持2D扩散模型的生成质量和多视角一致性。
Mar, 2024
提出一种新颖的图像编辑技术,可以在单幅图像上进行三维操作,如物体旋转和平移。通过使用在广泛的文本-图像对上训练的强大图像扩散模型,实现了生成具有大视角变换、高外观和形状一致性的高质量三维感知图像编辑,突破了单幅图像三维感知编辑的可能性的局限。
Mar, 2024
利用多视角扩散模型作为3D优化的先验条件,缓解了零样本文本到3D模型中的3D一致性问题,如Janus面问题或内容漂移问题。然而,输出的3D几何保真度仍然是一个未解决的问题;尽管渲染的2D视图是逼真的,但其底层几何可能包含不合理的凹面。我们提出了一种有效的方法CorrespondentDream,利用来自扩散U-Net的无注释交叉视图对应关系,为NeRF优化过程提供额外的3D先验。我们发现这些对应关系与人类感知力强烈一致,并通过采用它们在我们的损失设计中,能够生成与常识更一致的NeRF模型几何,例如更平滑的物体表面,从而提高3D保真度。通过各种比较性定性结果和扎实的用户研究,我们证明了我们方法的有效性。
Apr, 2024
本研究解决了现有文本到3D生成方法在语义一致性与多视图一致性之间的矛盾。提出的SeMv-3D框架引入三重平面先验学习与语义对齐视图合成器,能够同时在生成的3D对象中保持语义与视图的一致性。实验结果表明,该方法在各个视图上优于当前最先进的技术,具有重要的应用潜力。
Oct, 2024
本研究解决了现有多视角图像扩散模型在3D几何一致性方面的不足。提出的3D适配器模块通过将3D几何意识注入预训练图像扩散模型,显著提升了几何质量。实验证明,3D适配器不仅改善了文本到多视角模型的几何效果,还支持文本到3D、图像到3D等多种任务,展现了其广泛的应用潜力。
Oct, 2024