稀疏视点场景重建的3D高斯喷溅优化
我们提出了一种从稀疏训练视角中训练一致的基于3DGS的辐射场的方法,通过集成深度先验、生成和显式约束来减少背景折叠、移除浮点值,并增强来自未见视角的一致性,实验证明我们的方法在MipNeRF-360数据集上以较少的训练和推理成本超过了基本的3DGS的30.5%和基于NeRF的方法的15.6%。
Nov, 2023
3D高斯喷洒是一种能够实时渲染的、可控且可编辑的3D重建和表示方法,通过显式场景表示和可微分的渲染算法,提供了独特的优势,为下一代3D重建和表示技术带来了潜在的变革。本文首次系统综述了3D高斯喷洒的最新进展和重要贡献,包括其背后的原理、应用可行性以及各类基准任务下的性能和实用性评估,并指出当前挑战和未来研究的发展方向。
Jan, 2024
提出了一种名为Pixel-GS的新方法,通过考虑每个视图中高斯函数覆盖的像素数量来计算增长条件,从而促进大型高斯函数的增长,实现了更精确、更详细的重构,同时保持实时渲染速度和最新的渲染质量。
Mar, 2024
本文研究了3D高斯喷射技术中的密度控制策略的不足之处,分析了导致过度重构和模糊渲染的原因,并提出了一种新的视图空间渐变方向梯度作为密度增加的判据,有效地解决了该问题,并在各种挑战性数据集上进行了评估,结果显示我们的方法在渲染质量上表现最佳,同时内存消耗降低或相似。
Apr, 2024
提出了一种能够隐式编码场景几何结构的结构感知高斯喷洒方法 (SAGS),通过基于本地-全局图表示促进复杂场景的学习并强制保持场景几何的有意义的点位移,与现有的 3D-GS 方法相比,在渲染质量和模型大小两方面都展现出卓越的性能,能够有效减轻之前方法的浮点和图像失真问题,并获得精确的深度图。
Apr, 2024
通过学习去除迭代3D高斯投射法(LP-3DGS)提供了一种自动寻找最佳裁剪比例的方法,该方法使用可训练的二进制掩码来对重要性分数进行裁剪,并通过重新设计掩码函数以利用Gumbel-Sigmoid方法使其可微分并与现有的3D高斯投射法训练过程兼容,从而在效率和质量之间提供了良好的平衡。
May, 2024
基于神经渲染技术,本研究提出了一种使用3D Half-Gaussian核的方法,以改进当前3D Gaussian splatting方法的性能,在不影响渲染速度的情况下,在多个数据集上获得了最先进的渲染性能。
Jun, 2024
本研究解决了稀疏视角三维重建中的信息不足和模型参数庞大的问题。采用自增强的粗到细高斯溅射策略,同时结合结构感知掩膜,显著提升了模型对稀疏输入和噪声的鲁棒性。实验结果表明,该方法在稀疏输入视图下在感知质量和效率上达到了最先进的性能。
Aug, 2024
本文针对稀视3D重建中的几项困难,提出了一种自增强的高斯喷溅方法,该方法结合结构感知掩模以提升稀视输入的表现。研究表明,新方法在感知质量和效率方面都达到了最先进的性能,尤其在处理稀少输入和噪声时表现出强大的鲁棒性。
Aug, 2024
本研究解决了从多视角图像数字化稀疏3D和4D场景重建时的性能瓶颈,尤其是在动态场景捕获需要大量摄像头的情况下。我们提出了一种优化策略,通过将斑点特征视作隐式神经场的输出,从而有效地正则化这些特征,显著提高了不同场景下的重建质量和一致性。该方法在静态和动态环境中均表现出色,为稀疏重建提供了有效解决方案。
Sep, 2024