提出了一种名为 Superpoint Gaussian Splatting(SP-GS)的新框架,该框架通过使用显式的 3D 高斯函数来重构场景,并将具有相似属性的高斯函数聚类成超点,从而实现了对动态场景的实时渲染,获得了最新的视觉质量。
Jun, 2024
通过提出动态多高斯汤(D-MiSo)方法和参数化高斯斑点的连接策略来对动态 3D 场景进行建模,实现对场景的局部动态编辑,解决了高斯飞溅模型存在的时间动态修改的难题。
May, 2024
使用 3D 高斯喷洒法重构动态场景,通过可调整的多层感知器(MLP)模型将场景的动态部分与静态部分分离,引入自适应窗口采样策略和自监督一致性损失来实现场景的时域一致性和高质量的可视化,达到了与竞争性能的动态场景高品质实时渲染。
Dec, 2023
本文提出了一种 3D 几何感知可变形高斯喷洒方法,用于动态视图合成。我们的解决方案通过显式提取和融合 3D 几何特征来实现 3D 几何感知的变形建模,从而实现改进的动态视图合成和 3D 动态重建。
Apr, 2024
提出了一种新的运动感知增强框架,通过挖掘光流中的有用运动线索来改进动态场景重建,以提高不同动态 3D 高斯喷溅方式的性能,并针对基于形变的范例提出了一种瞬态感知形变辅助模块。经过广泛的实验证明,与基线相比,我们的方法在渲染质量和效率方面都表现出明显的优势。
Mar, 2024
使用可变形 3D 高斯方法进行动态场景重建,将高斯飞溅效果扩展以适应通过多层感知器定义的时间相关变形场的可变形高斯集合的表示,同时使用静态高斯点云允许多层感知器集中其表示能力,最终优化得到与状态最前沿的动态神经辐射场方法相媲美且具有更快的优化和渲染速度。
4D 高斯喷洒是一种在动态场景下表示动态场景的新方法,通过时间切片和投影技术实现了对复杂运动和细节的建模,并在实时渲染方面取得了显著的效果和效率优势。
Feb, 2024
我们提出了一种从稀疏训练视角中训练一致的基于 3DGS 的辐射场的方法,通过集成深度先验、生成和显式约束来减少背景折叠、移除浮点值,并增强来自未见视角的一致性,实验证明我们的方法在 MipNeRF-360 数据集上以较少的训练和推理成本超过了基本的 3DGS 的 30.5% 和基于 NeRF 的方法的 15.6%。
Nov, 2023
提出了一种新的动态场景视图合成方法,通过引入时间、运动和旋转参数增强了三维高斯函数,使用神经特征进行渲染,同时在具有挑战性的区域中利用训练误差和粗略深度进行高分辨率、实时渲染,并保持紧凑存储。
使用 CoGS 方法可以直接操纵场景元素,实现对动态场景的实时控制,且在视觉保真度方面始终优于现有的动态和可控神经表示方法。