提出了一种新的 3D 视频合成方法,使用神经辐射场表示动态实景,并使用一种紧凑的表现方式,能够高质量地合成视图和插值运动,其动态场景建模方法在视角合成和动态场景表示方面都表现良好。
Mar, 2021
本文提出了一种基于放射场的生成模型,该模型具有高保真度的可渲染三维一致模型,能够更准确地控制相机视点和物体姿态,并通过一个多尺度基于补丁的鉴别器来演示高分辨率图像的合成。
Jul, 2020
基于单目视频的全局静态场景模型和逐帧点云的动态内容的混合视频表示方法能够实时合成高质量的新视图,并且训练速度比现有方法快 100 倍。
Dec, 2023
提出了 OD-NeRF,它可以实现动态三维场景的流式训练和渲染,并在实现帧间隐式跟踪和采样方面取得了重要进展。
May, 2023
该研究论文介绍了 VideoRF,这是第一个能够在移动平台上实时流式传输和渲染动态辐射场的方法,通过使用特定的训练方案和渲染流水线,实现了在移动设备上的高效实时渲染。
本文研究了从稀疏源观测中合成新视角的问题,提出了一种简单而有效的方法,通过将观测编码到体积表示中进行摊销渲染,并通过自我监督信号实现了对 3D 几何的有效学习。
Jul, 2021
本研究中,我们介绍了一种新方法,通过联合估计静态和动态辐射场以及相机参数来解决使用 SfM 算法估计相机姿态时的不稳定性问题,实验证明此方法比现有的动态视图合成方法表现优异。
Jan, 2023
该研究提出了一种从单个视频学习动态场景的时空神经辐射场的方法,能实现自由视角渲染输入视频。该学习方法建立在最近关于内隐表示的进展之上,利用视频深度估计方法的场景深度来约束我们的动态场景表示的时变几何,将单个帧中内容聚合为一个全局表示,并提供了广泛的定量评估和引人注目的自由视点渲染结果。
Nov, 2020
本文提出了一种名为 ENeRF 的场景表示,用于快速创建交互式自由视点视频,并实现了深度预测和辐射场网络的联合学习,通过针对场景表面附近的点进行采样,从而显著提高了渲染速度。在多个基准测试中进行实验,结果表明我们的方法在表现上具有竞争力,同时比先前的泛化辐射场方法快至少 60 倍。
Dec, 2021
本研究提出了一种基于卷积神经辐射场的方法来解决现有方法中存在的问题,在新颖视角综合方面取得了显著的结果。
Jul, 2023