使用三面体扩散生成 3D 神经场
本文通过对三平面离散数据结构进行处理,展示了该结构具有丰富的信息,可以通过标准深度学习模型进行有效处理,并在处理过程中实现了与处理显式表示结构相当的任务性能,同时保持了相同的重建质量。
Oct, 2023
通过引入一种基于扩散的前馈框架,以及使用改进的三面平面和 3D-aware 转换器、编码器 / 解码器来处理大规模的 3D 资源生成任务,该研究提出了一个更强的 3D 生成模型,以增强多样性、语义和质量。
May, 2024
本文提出了一种新颖的潜在的 3D 扩散模型来生成神经体素场,旨在实现准确的部件感知结构。通过对现有方法的比较,我们采用了两个关键设计来确保高质量和准确的部件感知生成。一方面,我们引入了潜在的 3D 扩散过程来生成神经体素场,使其能够以显著更高的分辨率生成富有纹理和几何细节。另一方面,我们引入了部件感知的形状解码器,将部件代码整合到神经体素场中,引导准确的部件分解并产生高质量的渲染结果。通过广泛实验和与现有最先进方法的比较,我们对我们的方法在四种不同类别的数据上进行了评估。结果表明,我们提出的方法在部件感知形状生成方面具有优秀的生成能力,优于现有最先进方法。
May, 2024
使用三平面的三维感知扩散模型与 Transformer 架构,通过改善三维表示、处理几何和纹理的巨大变化、增强复杂对象的三维知识,提出一个能生成大量多样性、丰富语义以及高质量的真实世界三维对象的单一 DiffTF 模型,该模型在 ShapeNet 和 OmniObject3D 的广泛实验中表现出最先进的大量词汇三维对象生成性能。
Sep, 2023
本研究提出了一种新的扩散设置,可以仅通过 2D 图像监督就可以进行端到端的训练,同时提出的图像形成模型将模型内存与空间内存分离,以应对 3D 扩散模型在训练上遇到的问题,并在 CO3D 数据集上进行的实验表明,该方法是可扩展的,具有稳健性,与现有的 3D 生成建模方法在样本质量和保真度方面相当竞争。
Mar, 2023
通过引入第一种能够快速进行真实世界三维场景的详细重建和生成的推广模型,我们在本研究中提出了三个贡献:首先,引入了一种新的神经场景表示方法 IB-planes,能够有效准确地表示大型三维场景,并在需要时动态分配更多容量以捕捉每张图像中可见的细节;其次,我们提出了一种去噪扩散框架,通过仅使用二维图像而不需要额外的监督信号(如掩码或深度)学习对这种新型三维场景表示的先验知识,从而支持三维重建和生成;第三,我们开发了一种避免将基于图像渲染与扩散模型集成时产生平凡三维解决方案的原则性方法,即通过丢弃某些图像的表示。我们在几个具有挑战性的真实和合成图像数据集上评估了该模型,并在生成、新视图合成和三维重建方面展示了优越的结果。
Feb, 2024
LN3Diff 是一个新颖的框架,通过使用 3D 感知架构和变分自编码器将输入图像编码到结构化、紧凑和 3D 潜空间中,然后通过基于 Transformer 的解码器将潜空间解码为高容量的 3D 神经场,从而在 3D 生成、单目 3D 重建和有条件 3D 生成等各种数据集上展现出卓越的表现,并在推理速度方面超越了现有的 3D 扩散方法。
Mar, 2024
在电影、游戏、工程以及增强 / 虚拟现实等多种实际应用中,可控地生成 3D 资产具有重要意义。最近,扩散模型在生成 3D 对象的质量方面取得了显著的成果。然而,现有模型中没有一个能够实现对形状和外观的分离生成。我们首次提出了一种适用于 3D 扩散模型的合适表示方法,通过引入混合的点云和神经辐射场方法实现了这种分离,模拟了点位置的扩散过程,并结合高维特征空间的局部密度和亮度解码器。点位置表示对象的粗略形状,而点特征则允许对几何形状和外观细节进行建模。这种分离使得我们能够独立地对二者进行采样和控制。与之前的分离能力方法相比,我们的方法在生成方面达到了新的技术水平,降低了 30-90% 的 FID 分数,并且与其他非分离能力的最先进方法处于同一水平。
Dec, 2023
Sin3DM 是一种学习来自单个 3D 纹理形状的内部图案分布的扩散模型,该模型通过压缩输入到低维潜在空间来降低内存和计算成本,然后通过 Triplan 感知 2D 卷积块来训练模型,可以生成较高质量的 3D 形状,还可以用于重定位,外表绘画和局部编辑。
May, 2023
Blaze3DM 是一种新颖的方法,通过集成紧凑的三平面神经场和强大的扩散模型,实现快速且高保真度的生成,用于解决 3D 医学逆问题,它在计算效率上显著提高了现有方法的性能(比以前的工作快 22~40 倍)。
May, 2024