单视角图像中的可推广人类高斯模型
HumanSplat 通过在单个输入图像中预测任何人类的三维高斯 Splatting 属性,以解决高度精确的人体重建技术在广泛场景中受限于图像密集捕获要求或耗时的单例优化的问题。它由 2D 多视角扩散模型和具有人体结构先验的潜在重建转换器组成,巧妙地将几何先验和语义特征融入统一框架内。进一步设计了一种包含人体语义信息的分层损失,以实现高度逼真的纹理建模并更好地约束估计的多个视角。在标准基准和野外图像上的综合实验证明 HumanSplat 在实现逼真的新视图合成方面超越了现有最先进的方法。
Jun, 2024
通过引入 FDGaussian,我们提出了一种新颖的两阶段单图像 3D 重建框架,利用直接平面分解机制从二维输入中提取三维几何特征,实现生成一致的多视角图像,并结合对极注意力进一步加速高质量的三维对象重建。
Mar, 2024
通过构建新的模型,通过将 2D 扩散模型和 3D 重建模型进行紧密耦合,我们可以从单个 RGB 图像中创建逼真的头像,并实现几何和外观上的高保真度。
Jun, 2024
通过引入大型多视图高斯模型(LGM),这篇论文提出了一种从文本提示或单视图图像生成高分辨率 3D 模型的新框架,其中包含多视图高斯特征作为有效且强大的表示,并利用多视图扩散模型实现高吞吐量骨干网络的不对称 U-Net。大量实验证明了该方法的高保真度和高效性,同时在 5 秒内生成 3D 对象的速度快且训练分辨率达到 512,从而实现了高分辨率 3D 内容生成。
Feb, 2024
通过联合学习网格畸变和二维 UV 空间高斯纹理,我们提出了 UV 高斯模型,用于重建逼真的可行驶人体化身,并通过独立的网格网络来优化姿势相关的几何畸变,从而指导高斯渲染并显著提高渲染质量。
Mar, 2024
通过 3D 高斯模糊表示 animatable 的人物及其所在的场景,以实现对动画人物的新姿势合成和人物和场景的新视图合成,并在提高渲染质量的同时,训练速度更快。
Nov, 2023
从大型 2D 图像集合中学习 3D 头部先验是实现高质量 3D 意识人体建模的重要步骤。本研究提出了一种有效的架构,名为 Generative Gaussian Heads(GGHead),其采用了最近的 3D 高斯光斑表示法,并结合了 2D 图像生成器和全变差损失,能够快速生成并渲染具有高分辨率和全局 3D 一致性的头部实例。
Jun, 2024
利用 MVHuman 方案,通过多视角采样策略和预训练的 Stable Diffsuions 网络生成人体辐射场,无需微调或蒸馏,且优于现有的 3D 人体生成方法。
Dec, 2023
通过单目视频输入的方法,本文提出了一种将世界和多个动态人物在 3D 中进行重构的方法,使用新兴的 3D 高斯涂布(3D-GS)表示法来表达世界和多个人物,解决了 3D 人物重构中常见的观测在 3D 空间中非常有限和稀疏的挑战,并演示了方法在各种具有挑战性的例子中可以重构出高质量的可动画 3D 人物,并且在重构后,该方法可以以任意时间片段渲染场景并编辑 3D 场景。
Apr, 2024