UpFusion:基于未姿态稀疏视角观测的新视角扩散
iFusion 是一个新颖的 3D 物体重建框架,只需两个未知相机姿态的视图。通过使用预训练的新视图合成扩散模型进行相机姿态估计和新视图合成,iFusion 能够在 3D 物体重建中表现出良好的性能并与其他方法相融合。
Dec, 2023
通过扩散模型进行新视图合成表现出了出色的潜力,然而这些常见方法中图像生成的独立过程导致在保持多视图一致性方面存在挑战。为了解决这个问题,我们引入了 ViewFusion,这是一种新颖的、无需训练的算法,可以无缝地集成到现有的预先训练好的扩散模型中。我们的方法采用自回归的方式,隐含地利用之前生成的视图作为下一个视图生成过程的上下文,确保在新视图生成过程中具有稳健的多视图一致性。通过通过插值去噪将已知视图信息融合到扩散过程中,我们的框架成功地将单视图条件模型扩展为能在多视图条件设置下工作,无需额外的微调。广泛的实验结果表明 ViewFusion 在生成一致且详细的新视图方面的有效性。
Feb, 2024
通过深度学习,本研究提出了一种新颖的视角合成方法 ViewFusion,其以端到端的生成方式灵活地综合多个输入视角,消除噪声并生成高质量的视角,相较于现有方法具有更好的泛化性能和适用性。
Feb, 2024
使用基于扩散的模型,结合现有的二维扩散骨架和三维特征体,进行三维感知的图像生成,同时具备自回归生成 3D 一致的序列能力。在合成渲染图像和实际物体上展示了最先进的效果。
Apr, 2023
本研究中,我们探讨了如何在缺乏信息情况下,运用预先训练的扩散模型来合成全新视角的高质量图像,提出了 DreamSparse 框架,并利用几何模块来抓取 3D 特征,将其转化成空间信息来指导生成过程,并通过改进 2D 扩散模型的方式来保证其生成几何一致的图像,通过实验证明了该方法的有效性。
Jun, 2023
通过预训练的稳定扩散模型,基于个性化文本到图像模型 Dreambooth,我们的研究发现视图概念可以被学习和分离,并通过少量示例迁移到新对象,我们引入了一种名为 FSViewFusion 的学习策略,通过单个场景的一张图像样本来传递视图的知识,通过低秩适配器在少量样本上学习新对象,通过大量实验证明我们的方法能够在野外图像中生成可靠的视图样本。
Mar, 2024
本文提出了一种姿态引导扩散模型来从单张图像中生成一致的、持久的新视角视频,并设计了一个利用极线作为约束的注意力层以促进不同视角之间的关联。实验结果表明,该模型在合成和真实数据集上表现优异,胜过基于 Transformer 和 GAN 的现有方法。
Mar, 2023
Sparse3D 是一种针对稀疏视角输入的新型三维重建方法,通过从强大的图像扩散模型提取 2D 先验,使得我们的综合模型在面对开放世界对象时仍能始终保持高质量的结果,并借助 C-SDS 技术来增强细节,实验证明了我们的方法在 NVS 和几何重建方面优于之前的最先进工作。
Aug, 2023
本研究提出了一种名为 MVDiffusion++ 的神经架构,用于 3D 物体重建,通过一张或几张图像生成物体的密集高分辨率视图。MVDiffusion++ 采用了两个令人惊讶地简单的想法,即 “无姿态架构”,其中 2D 潜在特征之间的标准自注意力学习了在任意数量的条件和生成视图之间的 3D 一致性,而无需明确使用相机姿态信息,并且 “视图丢弃策略” 在训练期间丢弃了大量输出视图,减少了训练时的内存占用,并且在测试时实现了密集高分辨率视图合成。我们使用 Objaverse 进行训练并使用 Google 扫描的物体进行评估,采用了标准的新视图合成和 3D 重建度量,其中 MVDiffusion++ 显著优于当前的技术水平。我们还通过将 MVDiffusion++ 与文本到图像生成模型相结合,展示了一个文本到 3D 的应用示例。
Feb, 2024