ContextGS: 带有锚定层上下文模型的紧凑三维高斯分层处理
通过建立二进制哈希网格以揭示锚点的内在空间关系,我们提出了一种哈希网格辅助的上下文(HAC)框架,实现高度紧凑的 3D 高斯填充(3DGS)表示,从而在与原始 3DGS 相比显著减小尺寸超过 75 倍的同时,提高保真度,并在与最先进的 3DGS 压缩方法 Scaffold-GS 相比实现超过 11 倍的尺寸减小。
Mar, 2024
Scaffold-GS 方法使用锚点在视场内基于视线方向和距离动态分布局部的 3D Gaussians,有效地减少冗余的 Gaussians,同时能够实现高质量渲染。
Nov, 2023
我们提出了一种紧凑的场景表示方法,将三维高斯扩散模型的参数组织成具有局部均匀性的二维网格,从而实现了存储需求的大幅度降低,同时在渲染过程中不影响视觉质量。
Dec, 2023
提出了一种名为 CompGS 的高效的三维场景表示方法,通过使用紧凑的高斯原始形式,实现了对三维场景建模过程中数据大小的显著降低。通过设计一种捕获彼此之间预测关系的混合原始结构,利用少量的锚原始形式进行预测,并将大多数原始形式封装成高度紧凑的残差形式。此外,还开发了一种受速率约束的优化方案,以在比特率消耗和表示效能之间实现 CompGS 的最佳权衡。实验证明,所提出的 CompGS 在三维场景表示中明显优于现有方法,在不损害模型准确性和渲染质量的情况下实现了卓越的紧凑性。我们的代码将在 GitHub 上发布供进一步研究使用。
Apr, 2024
提出了一种能够隐式编码场景几何结构的结构感知高斯喷洒方法 (SAGS),通过基于本地 - 全局图表示促进复杂场景的学习并强制保持场景几何的有意义的点位移,与现有的 3D-GS 方法相比,在渲染质量和模型大小两方面都展现出卓越的性能,能够有效减轻之前方法的浮点和图像失真问题,并获得精确的深度图。
Apr, 2024
3D 高斯光斑是一种用于 3D 视图合成的新方法,其相较于传统的神经渲染技术,能在保持更高清晰度的快速渲染速度的同时,获得隐式神经学习渲染结果。通过多种实验测试不同因素对 3D 高斯光斑模型的训练效率的影响,介绍了一种基于 I3DS 的合成模型性能改进评估解决方案。经过合理的微调后,I3DS 相较于之前的模型性能获得了显著提升。
May, 2024
通过引入轻量级 4D 高斯光斑框架(LGS),该研究解决了在资源有限的手术设备中妨碍实时渲染的存储问题,并在动态内窥镜重建中展现出较高的压缩率、良好的视觉质量和实时渲染效率。
Jun, 2024
CityGaussian employs a divide-and-conquer training approach and Level-of-Detail strategy for efficient large-scale 3D Gaussian Splatting training and rendering, achieving state-of-the-art rendering quality in real-time across various scales.
Apr, 2024
我们提出了 DoGaussian 方法,该方法通过将场景分解为 K 个块并在 3DGS 的训练过程中引入交替方向乘子方法(ADMM),在主节点上维护一个全局 3DGS 模型和 K 个从节点上的本地 3DGS 模型,从而加快了在大规模场景中的 3DGS 训练速度 6 倍以上,并同时实现了最先进的渲染质量。
May, 2024
通过优化 3D 高斯飞溅表示法,将高保真度场景重建应用于稀疏图像集合的新视角合成,并通过压缩的 3D 高斯飞溅表示法,在显著降低内存消耗和提高渲染效率的基础上,实现了对方向性颜色和高斯参数进行压缩。在多个数据集上进行广泛实验,证明了该方法的鲁棒性和渲染速度。
Nov, 2023