HAC:基于哈希网格辅助的三维高斯点云压缩
通过引入上下文模型在锚点级别进行 3D 高斯点片重建表示,相比于标准 3D 高斯点片重建和最新的最先进的 Scaffold-GS 方法,我们的工作实现了超过 100 倍的尺寸减小,并达到可比甚至更高的渲染质量。
May, 2024
我们提出了一种紧凑的场景表示方法,将三维高斯扩散模型的参数组织成具有局部均匀性的二维网格,从而实现了存储需求的大幅度降低,同时在渲染过程中不影响视觉质量。
Dec, 2023
提出了一种名为 CompGS 的高效的三维场景表示方法,通过使用紧凑的高斯原始形式,实现了对三维场景建模过程中数据大小的显著降低。通过设计一种捕获彼此之间预测关系的混合原始结构,利用少量的锚原始形式进行预测,并将大多数原始形式封装成高度紧凑的残差形式。此外,还开发了一种受速率约束的优化方案,以在比特率消耗和表示效能之间实现 CompGS 的最佳权衡。实验证明,所提出的 CompGS 在三维场景表示中明显优于现有方法,在不损害模型准确性和渲染质量的情况下实现了卓越的紧凑性。我们的代码将在 GitHub 上发布供进一步研究使用。
Apr, 2024
通过将网格体积与 3D 高斯喷洒(3DGS)管道结合,提出了一种名为 HO-Gaussian 的混合优化方法,以克服使用初始结构运动(SfM)点的依赖性,从而使得在城市场景中进行渲染成为可能,并且引入了点密度化来提高在训练期间出现问题的区域的渲染质量。此外,我们引入了高斯方向编码作为渲染管道中球面调和的替代方法,从而实现了视角相关的颜色表示。为了解决多相机系统的问题,引入了神经翘曲以增强不同相机之间的物体一致性。在广泛使用的自动驾驶数据集上的实验结果表明,HO-Gaussian 在多相机城市数据集上实现了实时照片级渲染。
Mar, 2024
通过优化 3D 高斯飞溅表示法,将高保真度场景重建应用于稀疏图像集合的新视角合成,并通过压缩的 3D 高斯飞溅表示法,在显著降低内存消耗和提高渲染效率的基础上,实现了对方向性颜色和高斯参数进行压缩。在多个数据集上进行广泛实验,证明了该方法的鲁棒性和渲染速度。
Nov, 2023
提出了一种能够隐式编码场景几何结构的结构感知高斯喷洒方法 (SAGS),通过基于本地 - 全局图表示促进复杂场景的学习并强制保持场景几何的有意义的点位移,与现有的 3D-GS 方法相比,在渲染质量和模型大小两方面都展现出卓越的性能,能够有效减轻之前方法的浮点和图像失真问题,并获得精确的深度图。
Apr, 2024
介绍了高斯森林建模框架,该框架通过在复杂区域中进行详细表示并显著减少所需的高斯模型数量,从而实现了与现有方法相媲美的速度和质量,并且在压缩比方面取得了 10 倍以上的显著进展。
Jun, 2024
Scaffold-GS 方法使用锚点在视场内基于视线方向和距离动态分布局部的 3D Gaussians,有效地减少冗余的 Gaussians,同时能够实现高质量渲染。
Nov, 2023
使用量化嵌入技术和粗到精的训练策略,大幅降低内存存储需求,实现了高分辨率场景的实时渲染和更快更稳定的高斯点云优化,减少了记忆存储量并保持重建质量,验证表明效果显著。
Dec, 2023