本文介绍了一种使用深度神经网络进行视图综合和图像合成的方法,通过连续的体积场函数来优化复杂场景的视图,并在神经辐射场方面取得了最新的研究成果。
Mar, 2020
本篇论文中,我们提出了一种名为MINE的算法,通过从单一图像进行密集的3D重建来执行新视角合成和深度估计,并引入了NEural radiance fields(NeRF)进行连续深度泛化。给定单张图片为输入,MINE能够预测出深度值的4通道图像(RGB和体密度),从而共同重建相机截锥并填补遮挡内容。无需人工标注深度监督,我们在iBims-1和NYU-v2的深度估计中获得竞争结果。通过对RealEstate10K,KITTI和Flowers Light Fields进行大量实验,证明了MINE在新视角合成方面的表现优于现有技术。
Mar, 2021
作者提出了基于可微分不可视模块的NeRF-ID方法,该方法可以优化粗到精的采样策略,得到比NeRF和当前最先进算法更好的视图合成质量,并且显著降低计算时间。
Jun, 2021
本文提出了一种基于 NeRFA 的 seq2seq 形式,用于视图合成,在四个数据集上优于 NeRF 和 NerFormer,并在单场景视角合成和类别中心的新视图合成两个方面取得了最新技术成果。
Jul, 2022
提出了一种名为 NeRFLiX 的泛 NeRF 恢复模型范例,可以通过降级驱动的视点间混合器去除 NeRF 本身的渲染艺术品,并且通过聚合高质量图片的架构将新颖视角合成的质量推向新的水平,从而实现高度逼真合成图像。
Mar, 2023
本篇论文提出了一种新的方法,通过将NeRFs融合为可与高度并行的图形渲染管线完全兼容的高效网格神经表示,使用屏幕空间卷积,来提高外观的质量和整个框架的表现。
Apr, 2023
提出了一种名为NeRFLiX的方法,通过利用一个去除降级驱动的视角混合器和一种新的相机降级模型,进一步提高了NeRF模型的表现,在各种新视图综合基准测试中表现出色。
Jun, 2023
提出了一种名为NeRDF的新表示方法,旨在实现实时的高效视图合成,通过基频和频率权重的网络预测实现单像素每次只进行一次网络转发,并通过辐射分布进行体素渲染计算,相比现有方法在速度、质量和网络尺寸方面具有更好的权衡,实现了与NeRF相似的网络大小下约254倍的加速。
Aug, 2023
我们提出了一种逼真的实时小说视角综合(NVS)大场景的新方法,通过将中等质量的脚手架网格作为输入,学习神经纹理场和着色器以增强逼真感,同时使用标准图形管道进行实时渲染,我们的方法在大型自动驾驶和无人机场景中提供至少30倍更快的渲染速度与可比或更好的逼真度,我们的工作是首次实现大型真实世界场景的实时渲染。
Nov, 2023
NeRF-VPT是一种创新的方法,通过级联的视角提示调整范式,在不依赖外部指导或复杂技术的情况下,从先前渲染的RGB数据中采样作为先验信息,逐步提高渲染图像质量,显著提升基线性能并生成更高质量的新视角图像。
Mar, 2024