DynIBaR: 神经动态图像渲染
该论文提出了一种新的非刚性动态场景重建和新视角合成方法 ——NR-NeRF,该方法能够使用一个便携式消费级相机拍摄到的动态场景的 RGB 图像创建高质量的时空几何和外观表示,并且可以生成复杂的渲染场景。
Dec, 2020
提出 DyBluRF 方法,通过在受到运动模糊的单目视频中捕捉相机轨迹和场景内物体的离散余弦变换 (DCT) 轨迹,以及采用全局跨时间渲染方法来实现生成高质量、清晰的新视角,并保持场景的时空一致性。在经过特定定制的多样化动态场景数据集上进行的实验结果表明,该方法在从运动模糊输入生成清晰的新视角并保持场景的时空一致性方面优于现有方法。
Mar, 2024
本文提出了 D-NeRF 方法,将神经辐射场扩展到动态领域,允许从单个相机围绕场景重建和渲染对象的新图像。通过将时间作为系统的额外输入,并将学习过程分为两个主要阶段,可以同时学习两个映射,实现控制相机视图和时间变量以及物体移动的目的。
Nov, 2020
提出一种用于模糊单目视频的动态去模糊 NeRF 框架(DyBluRF),通过互联的射线细化阶段(IRR)和基于运动分解的去模糊阶段(MDD),首次处理和处理了模糊单目视频的新视图合成。
Dec, 2023
提出了一种新的 3D 视频合成方法,使用神经辐射场表示动态实景,并使用一种紧凑的表现方式,能够高质量地合成视图和插值运动,其动态场景建模方法在视角合成和动态场景表示方面都表现良好。
Mar, 2021
本文提出了一种基于先进的体素网格优化的快速变形辐射场方法来处理动态场景,该方法包括两个模块,采用变形网格存储动态特征和密度和色彩网格来模拟场景几何和密度,并将遮挡进行显式建模以进一步提高渲染质量。实验结果表明,本方法在仅用 20 分钟的训练时间下,达到了与 D-NeRF 相当的性能,比 D-NeRF 快 70 倍以上,显示了该方法的高效性。
Jun, 2022
通过预定制技术在视频帧上微调预训练的 RGB-D 扩散模型,然后将知识从微调的模型提取到包含动态和静态神经辐射场(NeRF)组件的 4D 表示中,实现几何一致性并保持场景的一致性,从而进一步推进动态新视角合成。
Jan, 2024
该研究提出了一种基于神经隐式表示及不可导函数的算法,能够从动态场景中的单目视频中生成任意视角和任意输入时间步长下的新视图;通过联合训练一个不变的静态 NeRF 和一个时间变化的动态 NeRF,以及使用正则化约束的方式解决了样本不足的问题,其在大量数据和质量实验效果上获得了良好的表现。
May, 2021
我们引入了一种新颖的方法,用于动态场景的单目新视图合成。通过将场景动态性与预训练的神经图像渲染方法相结合,我们的方法绕过了训练数据和场景动态性多样性的限制,通过优化场景流场来实现将动态场景呈现为静态场景,从而降低了优化时间并实现了与现有方法相当的渲染质量。
Sep, 2023
通过使用动态 NeRFs 重建足球场景,我们探索了基于这一方法解决视角合成任务的可行性,并识别出帮助使用动态 NeRFs 重建足球场景的关键组成部分,表明这种方法虽然不能完全满足目标应用的质量要求,但提出了一种节省成本、自动化的解决方案。
Sep, 2023