神经轨迹场用于动态新视角合成
本文提出了 D-NeRF 方法,将神经辐射场扩展到动态领域,允许从单个相机围绕场景重建和渲染对象的新图像。通过将时间作为系统的额外输入,并将学习过程分为两个主要阶段,可以同时学习两个映射,实现控制相机视图和时间变量以及物体移动的目的。
Nov, 2020
我们的研究目标是从复杂动态场景的单目视频中生成高质量的新视图。为了解决过去方法在准确建模复杂物体运动方面的局限性,我们提出了一种新方法,结合了近期的广义 NeRF 和在时间和频率域中操作的模块,以改善动态场景的图像合成的精确度和视觉质量。
Jan, 2024
该论文提出了一种新的非刚性动态场景重建和新视角合成方法 ——NR-NeRF,该方法能够使用一个便携式消费级相机拍摄到的动态场景的 RGB 图像创建高质量的时空几何和外观表示,并且可以生成复杂的渲染场景。
Dec, 2020
提出了一种使用神经场地理概念表示动态场景,并利用单目视频生成新视角和时间合成的方法。通过神经网络优化新的场景流场来适应观测输入视角,并在复杂动态场景中表现出较好的性能。
Nov, 2020
本研究提出了一种时间变化的表示方法,用于跟踪和重建动态场景,并使用动态选择策略的神经辐射场结合同时定位和建图框架,实现了更有效的动态建图方法。
Oct, 2023
通过使用动态 NeRFs 重建足球场景,我们探索了基于这一方法解决视角合成任务的可行性,并识别出帮助使用动态 NeRFs 重建足球场景的关键组成部分,表明这种方法虽然不能完全满足目标应用的质量要求,但提出了一种节省成本、自动化的解决方案。
Sep, 2023
本文提出了一种基于先进的体素网格优化的快速变形辐射场方法来处理动态场景,该方法包括两个模块,采用变形网格存储动态特征和密度和色彩网格来模拟场景几何和密度,并将遮挡进行显式建模以进一步提高渲染质量。实验结果表明,本方法在仅用 20 分钟的训练时间下,达到了与 D-NeRF 相当的性能,比 D-NeRF 快 70 倍以上,显示了该方法的高效性。
Jun, 2022
该论文主要研究使用神经辐射场(NeRF)方法对合成和真实场景进行 3D 重建,包括利用多分辨率哈希编码等技术在静态和动态场景重建方面的研究。其中,还着重探讨了神经辐射场(D-NeRF)对动态场景重建的应用,并成功将其推广至真实世界动态场景。
Oct, 2022