我们提出了一种适用于动态城市环境的新颖分解辐射场方法,通过多级神经场景图表示来估计大规模动态区域的辐射场,并采用快速复合光线采样和渲染技术进行有效的训练和渲染,通过新的视图合成基准测试,我们证明了该方法在更多方面的性能优于先前的方法。
Mar, 2024
本研究提出了一种新型的神经场景渲染系统,在聚集和现实世界场景中学习对象组合的神经辐射场,具有编辑能力和高效处理能力,并通过新颖的双通道体系结构设计,得以在场景几何和外观以及独立于对象的可学习激活代码条件下训练各个独立目标。通过实验证明,该系统不仅在静态场景新视点综合方面具备优异性能,而且在对象级别编辑方面也能产生逼真的渲染效果。
Sep, 2021
本研究提出了一种基于神经网络的场景表示方法,可以直接从 RGB-D 视频中学习物体级别的神经表示,并具有显式的对象运动编码和 / 或变形编码,该方法评估后表明具有高效性,可解释性和可编辑性。
Apr, 2023
通过学习,我们提出了一种表示动态物体的方法,该方法由编码器 - 解码器网络和可微分的射线行进操作组成,它不需要明确重建或跟踪物体,使用了 3D 体积表示法,表现出更好的图像质量,为高分辨率应用提供了一种从表面到体积的方法
Jun, 2019
本文提出了一个用于无条件生成场景图的生成模型 SceneGraphGen,通过层级循环架构直接学习带标签和有向图的概率分布,生成的场景图多样且遵循真实场景的语义模式,同时还证明了生成的图在图像合成、异常检测和场景图完整性方面的应用。
Aug, 2021
本论文提出了一个统一的神经辐射场(NeRF)框架,以有效地进行场景分解和合成,用于建模现实世界场景,通过学习不同对象的解耦 3D 表示进行场景编辑,同时为新颖视角合成建模整个场景表示。
Aug, 2023
本篇论文提出一种基于体积图像渲染的新方法,通过汇集场景相邻视野的特征,以动态场景感知的方式合成新视点,从而在长视频中合成具有真实感的新视图,能够更好地应对复杂的场景动力学和不受限约束的相机轨迹。
Nov, 2022
提出了一种新的 3D 视频合成方法,使用神经辐射场表示动态实景,并使用一种紧凑的表现方式,能够高质量地合成视图和插值运动,其动态场景建模方法在视角合成和动态场景表示方面都表现良好。
Mar, 2021
本文提出了一种利用图神经网络从三维环境中给定的一系列 RGB-D 帧逐步建立语义场景图的方法,并提出了一种适用于部分和缺失图数据的新型注意机制。实验表明,我们的方法在某些方面表现优于三维场景图预测方法,并且精度与其他三维语义方法和全景分割方法相当,同时运行速度达到每秒 35 帧。
本文提出了 DynaVol,一种逆神经渲染框架,用于学习动态场景中多实体的时变体积表示,并在多个基准测试中通过两阶段训练验证了其有效性。