KeyGS:一种基于关键帧的高斯斑点法用于单目图像序列
本文研究了神经渲染、相机位姿、Neural Radiance Fields、3D Gaussian Splatting以及新视角合成等主题,通过使用显式几何表示和输入视频流的连续性,实现了无需任何SfM预处理的新视角合成。该方法在大运动变化下显著改善了先前方法在视角合成和相机姿态估计方面的性能。
Dec, 2023
通过利用3D高斯喷洒方法,我们开发了一种无需相机姿态的稀疏视图合成的新构建和优化方法,通过在构建过程中使用单目深度和将像素投影回3D世界来逐步构建解决方案,并通过检测训练视图与对应的渲染图像之间的2D对应关系,我们开发了一种统一可微的管道来完成相机注册和相机姿态与深度的调整,最后进行反投影。我们引入了高斯喷洒中预期表面的新概念,这对我们的优化至关重要。这些步骤使得我们能够获得一个粗糙的解决方案,然后可以使用标准优化方法进行低通滤波和细化。在Tanks和Temples以及Static Hikes数据集上,我们展示了仅使用三个广泛间隔的视图的结果,显示出明显优于竞争方法的质量,包括那些具有近似相机姿态信息的方法。此外,我们的结果在使用一半数据集时,随着视图数量的增加而改善,并且在使用InstantNGP和高斯喷洒算法时超过了先前的方法。
May, 2024
本文提出了Splatt3R,一种无姿态、前馈的方法用于野外3D重建和新视角合成,解决了从未校准自然图像中直接预测3D高斯喷溅的问题。该方法在MASt3R的基础上进行扩展,能够同时处理3D结构和外观,相比传统方法,避免了训练3D高斯喷溅时的局部最小值。实验结果表明,Splatt3R在未校准图像上的泛化性能优异,且可实现实时渲染。
Aug, 2024
本研究针对稀疏视图三维场景重建问题,通过利用大规模视觉模型的先验信息来提升重建质量。提出了一种名为LM-Gaussian的新方法,结合立体先验和扩散基的优化过程,实现了在少量图像下的高质量重建,显著降低了数据获取需求,具有广泛的应用潜力。
Sep, 2024
本研究针对3D高斯绘制在新视图合成中对准确相机姿态依赖的限制进行了探讨。通过优化外部相机参数以最小化光度残差,提出了一种新的方法,使得在无需准确姿态信息的情况下快速重建3D场景。研究结果表明,该方法在真实场景中具有快速收敛和高精度,显著提升了新视图合成的效率与效果。
Oct, 2024
本研究针对3D高斯散点(3DGS)在少量视图训练时容易过拟合的问题,提出了一种自我集成高斯散点(SE-GS)的方法。通过引入不确定性感知扰动策略,动态调整生成模型,使其能够在更广泛的视角变化下生成新视图图像,从而有效提升了少量训练视图下的新视图合成质量。实验结果表明,SE-GS在多个数据集上超越了现有的最先进方法。
Oct, 2024
本研究解决了现有动态场景合成算法在处理真实世界录制的单目视频时的过拟合问题。我们提出了一种新的4D高斯溅射算法,并引入不确定性感知正则化,能够在不确定区域施加额外的先验知识,从而提高新视图合成及训练图像重建的性能。实验结果表明,该方法在手持单目摄像机捕获的视频重建中显著提升了性能,并在少量静态场景重建中表现出良好效果。
Nov, 2024
本研究解决了传统图像重建方法在缺少摄像头姿态时的局限性。提出的ZeroGS方法通过利用预训练模型,从无序和无姿态的图像中训练3D高斯点云,显著提高了摄像头姿态的准确性及图像渲染质量。这项工作有潜力推动更广泛的应用场景和更高效的图像处理技术的发展。
Nov, 2024
本研究解决了传统3D高斯点云技术对已知相机姿态和需经过SfM预处理的稀疏点云的依赖问题。作者提出了一种新颖的无SfM 3D高斯点云技术(SFGS),通过层级训练策略优化多个3D高斯表示,从而实现对整个场景的统一建模。实验结果表明,该方法在视图合成效果上显著优于当前最先进的无SfM技术,提升了多个数据集的图像质量。
Dec, 2024
本研究解决了在动态环境中使用仅有的两张无先验姿态图像进行高斯拟合这一问题。通过提出物体层级的双视图束调整和基于SE(3)场驱动的高斯训练方法,研究展示了在合成和真实场景上的高保真新视角合成,显著提高了动态场景的时间一致性和对象运动建模能力,对现有静态和已知姿态方法形成了有力的挑战。
Dec, 2024