NerfBaselines:新视角综合方法的一致可重现评估
本研究提出了一种基于神经辐射场的三维场景风格化方法,采用新的训练方法,交替进行 3D 场景和风格化优化步骤,从而应用更加表现力的图像风格转移方法,生成高质量的具有交叉视角一致性的新视角图片。
Jul, 2022
通过学习高保真度的 4D 高斯点云分割场景表征,自校准相机参数,以及联合优化相机参数和 3D 结构,我们的方法在 4D 新视图合成方面展现出了显著的改进。
Jun, 2024
该文提出了一种基于新视角预测误差的统一评估方法,能够分析可以从输入图像中渲染新视角的任何方法的视觉质量,该方法不需要地面真实几何信息,并能够在获取和重建过程中评估未知场景的质量, 适用于评估各种使用情况。
Jan, 2016
本文提出了一种名为 FWD 的新颖视角综合方法,该方法使用稀疏输入,在保持实时性的同时以高质量的合成图像为结果。通过使用显式的深度和可微分渲染,可以获得和当前最先进的方法相当的结果,速度提高了 130-1000 倍,并具有更好的感知质量。该方法可以无缝地集成传感器深度,以在保持实时速度的同时提高图像质量。本方法有望得到越来越广泛而有用的应用。
Jun, 2022
本文提出了一种新型网络,利用少量稀疏图像输入,能够恢复三维场景几何信息和高分辨率彩色图像,并通过粗略到精细的球形追踪技术可以大幅提高速度,方法在多个数据集中都取得了可比较的精度。
Aug, 2021
论文通过演示在最广泛的 NeRF 数据集中对测试视图进行简单旋转可以导致现有先进技术的性能排名发生重大偏移,阐明了视图选择的重要性。为了解决这一挑战,作者提出了一个统一的视图选择方法框架,并设计了全面的评估标准来评估其影响。通过集中关注重建对象的均匀视图覆盖,无需利用误差或不确定性估计,可以实现显著的改进,从而实现快速获得高质量的渲染效果。通过在合成数据集和现实数据上进行广泛实验,与随机选择、传统基于误差的选择和基于不确定性引导的选择相比,证明了所提方法的有效性。
Jun, 2024
提供了一种生成大规模综合数据集的方法,并且使用 Sparse Voxel Light Field (SVLF) 方法,该数据集比现有的数据集具有更高的精度,并提供更高效的方法进行训练和评估。
May, 2022
提出了一种针对多视点立体相机图像的第一种通用视角合成方法,该方法引入了立体匹配以实现高质量的几何重建。该方法包括三个关键组件:立体特征提取器、深度引导的平面扫描和立体深度损失,并提出了第一个多视点数据集 StereoNVS,实验证明该方法优于以前的方法。
Apr, 2024
介绍了一种用于单个广角立体图像对的新视角合成的方法,包括 3D 场景重构和外观变化的先验模型,提出了一种多视角变换编码器、图像上的极线采样方案和轻量级交叉注意力渲染器,通过大规模实际数据集的训练,证明了模型学习到了强大的多视角几何先验,大大缩短了渲染时间,并在两个实际数据集上得到了显著的优越性能。
Apr, 2023