本文提出了 D-NeRF 方法,将神经辐射场扩展到动态领域,允许从单个相机围绕场景重建和渲染对象的新图像。通过将时间作为系统的额外输入,并将学习过程分为两个主要阶段,可以同时学习两个映射,实现控制相机视图和时间变量以及物体移动的目的。
Nov, 2020
本文提出了可动态变化神经辐射场 (animatable NeRF) 的方法用于从单眼视屏中创建细节丰富的人物角色,通过引入显式姿势引导变形的方式学习场景表示网络扩展神经辐射场 (NeRF) 到带有人体运动的动态场景,并展示了该方法在人物几何和外观重建、真实感渲染和动画设计等方面取得了突破性成果。
Jun, 2021
本文介绍了一种新型的优化算法 DroNeRF,用于通过少量图像实现单目相机无人机在物体周围自主定位,实现实时三维重建。文章使用 Neural Radiance Fields 或 NeRF,以只依赖于物体几何学而不使用任何外部定位系统的方式计算单个无人机的最佳姿态,并评估了生成的新视图的质量,表现出更好的感知度。
Mar, 2023
该论文提出了一种新的非刚性动态场景重建和新视角合成方法 ——NR-NeRF,该方法能够使用一个便携式消费级相机拍摄到的动态场景的 RGB 图像创建高质量的时空几何和外观表示,并且可以生成复杂的渲染场景。
Dec, 2020
本文介绍了一种新的方法,即折射 - 反射场,用于解决透明和镜面对象合成中的光线路径复杂性问题,并提出了一种虚拟锥超采样技术实现高效且有效的抗锯齿。通过在真实世界和合成数据集上进行测试,并对各种编辑应用进行定量和定性评估,包括材料编辑、对象替换 / 插入和环境照明估计,我们对该方法进行了基准测试。
Sep, 2023
本文介绍了一种叫做 RawNeRF 的技术,它可以直接从线性原始图像中进行训练,生成高动态范围的新视角合成图像,重构低光照条件下极其嘈杂的原始图像所代表的场景。
Nov, 2021
本文提出了一种基于先进的体素网格优化的快速变形辐射场方法来处理动态场景,该方法包括两个模块,采用变形网格存储动态特征和密度和色彩网格来模拟场景几何和密度,并将遮挡进行显式建模以进一步提高渲染质量。实验结果表明,本方法在仅用 20 分钟的训练时间下,达到了与 D-NeRF 相当的性能,比 D-NeRF 快 70 倍以上,显示了该方法的高效性。
Jun, 2022
本研究提出了一种时间变化的表示方法,用于跟踪和重建动态场景,并使用动态选择策略的神经辐射场结合同时定位和建图框架,实现了更有效的动态建图方法。
Oct, 2023
基于 NeRF 的人体表演姿态依赖渲染的新方法,通过将辐射场围绕 SMPL 人体模型进行扭曲,实现了新的表面对齐表示,可以通过骨骼关节参数和视点来实现动画化,并通过引入新的重新映射过程来实现高质量渲染。
Nov, 2023
该论文提出了一种基于光线追踪的方法来解决 Neural Radiance Fields(NeRFs)在渲染高光物体时的困难,并成功合成了真实世界场景中的光泽外观和反射,同时优化和渲染速度与当前状态 - of-the-art 视图合成模型相当。
May, 2024