Wonder3D:跨域扩散实现从单幅图像到三维模型
我们介绍了 Unique3D,这是一种新颖的图像到 3D 框架,能够高效生成高质量的 3D 网格,具有最先进的生成质量和强大的泛化能力。我们的 Unique3D 在几何和纹理细节方面显著优于其他图像到 3D 基准。
May, 2024
通过使用经过微调的 2D 扩散模型的多视角 2.5D 扩散方法,我们填补了 2D 扩散和直接 3D 扩散方法之间的差距,为 3D 内容生成提供了多样性、无模式寻找和高保真度,仅需 10 秒。
Nov, 2023
我们提出了一种新颖的方法,用于从多个图像中进行 3D 物体表面重建,其中只捕获了物体的一部分。我们的方法基于两个最新发展:使用神经辐射场进行表面重建,用于重建表面的可见部分,以及使用预训练的 2D 扩散模型的指导(SDS)完成未观察到的区域的形状。我们引入了三个组件:首先,建议使用法线图作为 SDS 的纯几何表示,而不是与外观信息交织在一起的颜色渲染。其次,我们在训练过程中使 SDS 噪声保持固定,这会导致更一致的梯度和更好的收敛性。第三,我们提出了多视角 SDS 作为一种在不对底层 2D 稳定扩散模型进行微调或更改的情况下对非可观察部分的生成进行条件化的方法。我们在 BlendedMVS 数据集上对我们的方法进行评估,结果显示相比竞争方法,我们取得了显著的定量和定性改进。
Dec, 2023
通过训练一个通用的 Normal-Depth 扩散模型,结合图像到深度和法向量先验模型,以及引入反射率扩散模型来减轻材质的混合光照效果,本文提出了一种用于 3D 生成的方法,显著增强了细节丰富性,达到了最先进的结果。
Nov, 2023
这篇论文提出了一种创新的方法 One-2-3-45++,可以在大约一分钟内将单张图像转化为详细的 3D 纹理网格,通过利用二维扩散模型的知识和有限的三维数据的先验信息,该方法能够快速生成高质量、多样化且与原始输入图像紧密相似的 3D 模型。
Nov, 2023
Envision3D 提出了一种从单张图像高效生成高质量 3D 内容的新方法,通过引入级联扩散框架和粗到细的重构算法,实现了生成具有材质和几何特性的高质量 3D 内容。
Mar, 2024
Sparse3D 是一种针对稀疏视角输入的新型三维重建方法,通过从强大的图像扩散模型提取 2D 先验,使得我们的综合模型在面对开放世界对象时仍能始终保持高质量的结果,并借助 C-SDS 技术来增强细节,实验证明了我们的方法在 NVS 和几何重建方面优于之前的最先进工作。
Aug, 2023
我们介绍了一种新的生成式基础模型 GeoWizard,用于从单幅图像中估计几何属性,例如深度和法线。我们展示了生成模型在解决固有的不适定问题方面的有效性,通过扩展原始的稳定扩散模型同时预测深度和法线,我们可以捕捉具有显著保真度的 3D 几何信息。GeoWizard 在零样本深度和法线预测方面树立了新的基准,大大提升了许多下游应用程序的性能。
Mar, 2024
Control3Diff 是结合扩散模型和 3D GAN 的 3D 扩散模型,其将潜在空间直观建模并允许通过控制输入快速生成 3D 图像。该方法在多个数据集中表现优秀,包括 FFHQ, AFHQ, and ShapeNet。
Apr, 2023
我们介绍了 3DiffTection,这是一种用于从单张图像中进行 3D 物体检测的最先进方法,利用了来自 3D 感知扩散模型的特征。通过两种专门的调整策略:几何和语义,我们的方法弥合了这些差距。通过我们的方法,我们获得了为 3D 检测量身定制的 3D 感知特征,以及在识别跨视角点对应方面表现出色的能力。
Nov, 2023