可编辑的顶点神经辐射场:通过关键点编辑拓扑变化的神经辐射场
论文提出了 NeuralEditor,用于泛形状编辑任务,通过利用显式点云表示构建 NeRF,并提出基于确定性积分的新型渲染方案,实现了基于点云的形状编辑,取得了最先进的性能。
May, 2023
本文提出了 D-NeRF 方法,将神经辐射场扩展到动态领域,允许从单个相机围绕场景重建和渲染对象的新图像。通过将时间作为系统的额外输入,并将学习过程分为两个主要阶段,可以同时学习两个映射,实现控制相机视图和时间变量以及物体移动的目的。
Nov, 2020
本文提出了一种通过操作训练视频单个帧中的像素点来编辑动态 NeRFs 的局部外观的新框架,并引入了本地表面表示来保留未编辑区域,通过学习的可逆运动表示网络将其插入和渲染到原始 NeRF 中,并将其变形到任意其他帧,达到时空一致的编辑结果。
Jul, 2023
本研究提出了一种基于 Neural Radiance Field 的方法,利用显式网格表示与场景的隐式神经表示建立对应关系,使用户可以利用网格形变方法进行可控的形状变形,并合成编辑后的场景的新视角图像。
May, 2022
本文提出了一种新的三维场景重建方法 HyperNeRF,通过将 NeRF 升维,将每个输入图像对应的五维辐射场表示为该 “超空间” 中的一片,从而解决了现有变形场模型在处理拓扑变化时的困难。实验表明,HyperNeRF 在平滑插值和新视角合成方面皆优于 Nerfies,平均误差率分别降低了 4.1%和 8.6%。
Jun, 2021
该论文提出了一种新的非刚性动态场景重建和新视角合成方法 ——NR-NeRF,该方法能够使用一个便携式消费级相机拍摄到的动态场景的 RGB 图像创建高质量的时空几何和外观表示,并且可以生成复杂的渲染场景。
Dec, 2020
利用拓展到神经辐射场(NeRF)的编辑技术来编辑场景是复杂的,本文提出了利用 NeRF 场景的几何信息作为桥梁来整合 2D 编辑的方法,并引入了一种填充方法来确保对不同图像的 2D 编辑具有鲁棒性。结果表明,该方法比现有的文本驱动 NeRF 场景编辑方法实现了更加一致、逼真和详细的编辑效果。
Apr, 2024
本文提出了一种基于先进的体素网格优化的快速变形辐射场方法来处理动态场景,该方法包括两个模块,采用变形网格存储动态特征和密度和色彩网格来模拟场景几何和密度,并将遮挡进行显式建模以进一步提高渲染质量。实验结果表明,本方法在仅用 20 分钟的训练时间下,达到了与 D-NeRF 相当的性能,比 D-NeRF 快 70 倍以上,显示了该方法的高效性。
Jun, 2022
本文介绍了 SealD-NeRF,它是 Seal-3D 的一个扩展,用于在动态环境中进行像素级编辑,特别针对 D-NeRF 网络。它通过将编辑操作映射到特定的时间框架,冻结负责动态场景表示的变形网络,并使用师生方法来集成更改,实现序列中的一致编辑。
Feb, 2024
本文介绍了一种可以对特定类别的条件辐射场进行用户编辑的方法,该方法假设观察多个特定类别的实例,学习部分语义,允许将粗略的二维用户涂鸦传播到整个三维区域中,该方法通过提出新的模块化网络组件和混合网络更新策略,结合优化问题和网络特定的目标,解决用户交互中的可视化编辑任务。
May, 2021