从单视角视频快速动态生成三维物体
借鉴视频扩散模型的最新进展,我们提出了 DG4D,一种新颖的多阶段框架,通过明确从一个输入图像生成多视角视频来生成高质量和一致的 4D 资产,该框架在生成质量方面超过了基准方法。
May, 2024
基于大规模多模态数据集和扩散模型的进展,我们提出了一种用于高效和可扩展的 4D 内容生成的新框架 Diffusion4D,具备时空一致性、多视角一致性和生成效率方面的优势。
May, 2024
本文介绍了一种名为 Consistent4D 的新方法,用于从未校准的单目视频生成 4D 动态对象。该方法利用基于对象的三维感知图像扩散模型作为主要监督信号来训练 Dynamic Neural Radiance Fields (DyNeRF),并引入级联 DyNeRF 和插值驱动的一致性损失以实现空间和时间一致性。实验证明,Consistent4D 在 4D 动态对象生成方面表现出色,并在传统的文本到三维生成任务中也取得了优势。
Nov, 2023
为了解决现有动态场景生成方法的局限性,本研究提出一种新的流程,通过使用视频生成模型,摒弃了对多视图生成模型的依赖,从而充分利用了在多样真实世界数据集上训练的视频生成模型,生成具有增强的逼真度和结构完整性的动态场景,可从多个角度查看,为 4D 场景生成树立了新的标准。
Jun, 2024
从 2D 图像中重建动态 3D 场景并随时间生成多样视角是一项具有挑战性的任务,本研究提出一种基于优化一组 4D 基元的方法,以近似表示动态场景的底层时空 4D 体积,通过特定的渲染程序,制造各种时间的新视角,该方法简单灵活,适用于捕捉复杂动态场景运动,实验结果在多个基准数据集上证明了其优秀的视觉质量和高效性。
Oct, 2023
提出了一种高效的稀疏控制视频到 4D 框架 (SC4D),通过解耦动作和外观,实现了 superior 的视频到 4D 生成,并引入了自适应高斯初始化和高斯对齐损失来解决形状退化问题,确保了学习的动作和形状的准确性,实验证明该方法在质量和效率方面优于现有方法,并且通过对运动和外观进行解耦,我们设计了一种新的应用,根据文本描述将学习到的运动无缝传输到各种 4D 实体。
Apr, 2024
4DGen 是一种新颖的综合框架,将 4D 内容创建任务拆分为多个阶段,利用静态 3D 资产和单目视频序列作为构建 4D 内容的关键组成部分,使用动态 3D Gaussians 构建 4D 表示,在训练期间利用渲染进行高分辨率监督,从而实现了高质量的 4D 生成,并实施了 3D 感知的得分蒸馏采样和平滑正则化以提供空间 - 时间伪标签和无缝一致性先验,相比现有基线方法,在忠实重建输入信号和从新视点和时间步骤推断渲染方面取得了具有竞争力的结果,最重要的是,我们的方法支持基于实际场景的生成,为用户提供了增强控制,这是以前方法难以实现的特点。
Dec, 2023
在本研究中,我们提出了 STAG4D,这是一种结合了预训练扩散模型和动态 3D 高斯雪碧的新型框架,用于高保真度的 4D 生成,通过利用多视图扩散模型初始化输入视频帧上的多视图图像,以确保多视图序列初始化的时间一致性,并应用得分蒸馏采样来优化 4D 高斯点云。
Mar, 2024
DreamGaussian4D 是一种高效的 4D 生成框架,它建立在 4D 高斯喷洒表示的基础上,通过显式地建模高斯喷洒中的空间变换,提高了 4D 生成的适用性,同时减少了优化时间,增加了对生成的三维动画的灵活控制,产生的动画网格在 3D 引擎中能被高效渲染。
Dec, 2023