DynMF:用于实时动态视图合成的神经运动分解与三维高斯投射
为快速优化和渲染设计动态场景的三维表示是一项具有挑战性的任务,本文旨在使用稀疏的输入视点学习快速的动态辐射场表示,并引入可靠的流先验来限制运动模型,从而实现对稀疏输入视点的优化。
Apr, 2024
使用可变形 3D 高斯方法进行动态场景重建,将高斯飞溅效果扩展以适应通过多层感知器定义的时间相关变形场的可变形高斯集合的表示,同时使用静态高斯点云允许多层感知器集中其表示能力,最终优化得到与状态最前沿的动态神经辐射场方法相媲美且具有更快的优化和渲染速度。
Dec, 2023
为了解决现有算法在处理无控制或长时间场景时的困难以及需要针对每个新场景进行大量训练时间的限制,我们提出了 DynPoint 算法,用于实现无约束单目视频的快速合成新视角。该算法通过预测相邻帧之间的显式 3D 对应关系来实现信息聚合,并利用这些对应关系来从多个参考帧到目标帧中聚合信息,从而实现快速准确的目标帧视角合成。实验证明,与以往方法相比,我们的方法在加速训练时间方面取得了显著的改进,通常为数量级的提高,并且在处理长时间视频时显示出较强的鲁棒性,并无需学习视频内容的规范表示。
Oct, 2023
本论文提出了 DCT-NeRF,一种基于坐标的神经表示方法,用于动态场景的高质量重建,它学习空间中每个点的平稳和稳定轨迹,并强制执行序列中任意两帧之间的一致性。
May, 2021
提出了一种使用神经场地理概念表示动态场景,并利用单目视频生成新视角和时间合成的方法。通过神经网络优化新的场景流场来适应观测输入视角,并在复杂动态场景中表现出较好的性能。
Nov, 2020
我们提出一种高效的神经 3D 场景表示方法,用于大规模、动态的城市地区的新视点合成 (NVS)。该方法可以适用于混合现实或闭环仿真等应用,具有较高的可视质量和交互式渲染速度。我们引入 4DGF,一种适用于大规模动态城市地区的神经场景表示方法,它可以处理异构输入数据,并显著提高渲染速度。在实验中,我们的方法的峰值信噪比 (PNSR) 超过最先进方法 3 分贝以上,渲染速度提高了 200 倍以上。
Jun, 2024
使用变形的多层感知器(MLP)网络捕捉动态偏移的高斯点并通过哈希编码和小型 MLP 来表示点的颜色特征,引入可学习的去噪掩模结合去噪损失以从场景中消除噪点,通过静态约束和运动一致性约束减轻点的运动噪声,实验证明我们的方法在渲染质量和速度上超过了现有方法,同时显著减少了与 3D-GS 相关的内存使用,非常适用于新的视角合成和动态建图等任务。
May, 2024