通过引入点云动态辐射场(Point-DynRF)的新框架,该论文解决了动态辐射场几何一致性仅限于相邻输入帧的问题,并通过训练神经点云和动态辐射场的全局几何信息和体积渲染过程来优化辐射场和几何代理,从而相互补充。实验证明了该方法的有效性。
Oct, 2023
提出 DyBluRF 方法,通过在受到运动模糊的单目视频中捕捉相机轨迹和场景内物体的离散余弦变换 (DCT) 轨迹,以及采用全局跨时间渲染方法来实现生成高质量、清晰的新视角,并保持场景的时空一致性。在经过特定定制的多样化动态场景数据集上进行的实验结果表明,该方法在从运动模糊输入生成清晰的新视角并保持场景的时空一致性方面优于现有方法。
Mar, 2024
本研究提出了一种基于连续波 ToF 相机的神经表征模型,改进了动态场景的重建质量及鲁棒性,讨论了将 RGB+ToF 传感器集成到现代智能手机上的益处和局限性。
Sep, 2021
以基于 3D 高斯喷墨技术的轻量级方法为基础,利用多视图低动态范围(LDR)图像,通过变化的曝光时间、光圈和聚焦距离重建高动态范围(HDR)光辐射场,实现灵活的重焦渲染,同时结合 HDR 和景深的处理,能够在实时电影渲染中表现出优异的性能。
Jun, 2024
提出了 S-DyRF,一种基于参考的时空风格化方法,通过引入时间伪参考进行粗略和细致的风格转移,实现了动态 3D 场景的合理风格化结果
通过采用神经辐射场(NeRF)方法,我们展示了一种能够学习时间上动态且可变形的三维场景的方法,并能适应各种不同相机和场景设置的鲁棒性模型,该模型消除了已知相机姿态的限制,并克服了目前静态场景重构技术中依赖场景静态部分进行精准重构的缺点,为当前和未来的机器人外科手术系统提供了潜力。
Sep, 2023
使用动态神经辐射场模型重新构建并生成能够通过单目输入数据学习的场景表示,结合场景表示网络和低维可变形模型进行虚拟场景生成。
Dec, 2020
通过增量学习范式,结合基础模型和逐帧模型差异调节策略,采用窄带技术和基于模型差异的压缩方法,实现高效的流式辐射场实时渲染,训练时间为每帧 15 秒,性能比其它隐式方法快 1000 倍。
Oct, 2022
该论文提出了一种基于静态基于点的辐射场的新颖可控人体动作合成方法,通过编码点云转换来应用变形,并利用奇异值分解估计局部旋转以使渲染结果与规范空间训练一致。实验表明,我们的方法在精细级复杂变形方面明显优于现有技术,且可推广到除人物之外的其他 3D 角色。
该论文提出了一种新的非刚性动态场景重建和新视角合成方法 ——NR-NeRF,该方法能够使用一个便携式消费级相机拍摄到的动态场景的 RGB 图像创建高质量的时空几何和外观表示,并且可以生成复杂的渲染场景。