通过三维高斯光斑重构视频增强视频编辑的时间一致性
提出了一种新的运动感知增强框架,通过挖掘光流中的有用运动线索来改进动态场景重建,以提高不同动态 3D 高斯喷溅方式的性能,并针对基于形变的范例提出了一种瞬态感知形变辅助模块。经过广泛的实验证明,与基线相比,我们的方法在渲染质量和效率方面都表现出明显的优势。
Mar, 2024
3D 高斯溅射在 3D 编辑方面的革命性变革中的作用是引入了 View-consistent Editing (VcEdit) 框架,该框架无缝地将 3DGS 引入图像编辑过程,确保修订的引导图像在多视图中具有一致性,并有效减轻模型崩溃问题。
Mar, 2024
通过利用事件相机的高时间分辨率和显式的基于点的表示,Event3DGS 可以在快速自我运动下仅根据事件流重建高保真度的 3D 结构,并通过稀疏感知的采样和渐进训练方法获得更好的重建质量和一致性,同时通过将运动模糊形成过程显式地结合到可微分的光栅化器中,通过有限的一组模糊的 RGB 图像来改善外观。大量实验证明,与现有方法相比,Event3DGS 具有卓越的渲染质量,并且训练时间减少了 95%以上,并且在渲染速度上具有数量级的提升。
Jun, 2024
CLIP-GS integrates semantics from Contrastive Language-Image Pre-Training (CLIP) into Gaussian Splatting, utilizing Semantic Attribute Compactness (SAC) and 3D Coherent Self-training (3DCS), achieving improved segmentation results with real-time rendering speed.
Apr, 2024
通过学习高保真度的 4D 高斯点云分割场景表征,自校准相机参数,以及联合优化相机参数和 3D 结构,我们的方法在 4D 新视图合成方面展现出了显著的改进。
Jun, 2024
本文介绍了一种名为 GS-SLAM 的算法,它在同时定位与地图构建(SLAM)系统中首次使用了 3D 高斯表示方法,实现了效率和准确性之间的更好平衡。与使用神经隐式表示的最新 SLAM 方法相比,我们的方法采用了实时可微分雀斑光照渲染流水线,大大加速了地图优化和 RGB-D 重渲染。具体而言,我们提出了一种自适应扩张策略,通过添加新的或删除噪音 3D 高斯来有效重构新观测到的场景几何并改善先前观测区域的建图。这种策略对于将 3D 高斯表示扩展到重建整个场景而不是在现有方法中合成静态物体至关重要。此外,在位姿跟踪过程中,设计了一种有效的从粗到细的技术,以选择可靠的 3D 高斯表示来优化相机姿态,从而减少运行时间并实现强健的估计。我们的方法在 Replica 和 TUM-RGBD 数据集上与现有的最新实时方法具有竞争力的性能。源代码将在获批后发布。
Nov, 2023
提出了 GaussCtrl,一种使用文本驱动的方法来编辑由 3D Gaussian Splatting (3DGS) 重建的 3D 场景。该方法首先通过使用 3DGS 渲染一系列图像,然后使用基于输入提示的预训练二维扩散模型 (ControlNet) 对这些图像进行编辑,从而优化 3D 模型。我们的主要贡献是多视角一致性编辑,使得能够同时编辑所有图像,而不像以前的方法那样需要逐个编辑图像并更新 3D 模型。这导致更快的编辑速度和更高的视觉质量。这是通过以下两个方面实现的:(a) 基于深度的编辑,通过利用天然一致的深度图加强了多视角图像之间的几何一致性。(b) 基于注意力的潜在代码对齐,通过在图像的潜在表示之间进行自注意力和跨视图注意力,使编辑图像的外观统一于多个参考视图。实验表明,与之前的最先进方法相比,我们的方法实现了更快的编辑速度和更好的视觉效果。
Mar, 2024
通过单目视频输入的方法,本文提出了一种将世界和多个动态人物在 3D 中进行重构的方法,使用新兴的 3D 高斯涂布(3D-GS)表示法来表达世界和多个人物,解决了 3D 人物重构中常见的观测在 3D 空间中非常有限和稀疏的挑战,并演示了方法在各种具有挑战性的例子中可以重构出高质量的可动画 3D 人物,并且在重构后,该方法可以以任意时间片段渲染场景并编辑 3D 场景。
Apr, 2024
4D 高斯喷洒是一种在动态场景下表示动态场景的新方法,通过时间切片和投影技术实现了对复杂运动和细节的建模,并在实时渲染方面取得了显著的效果和效率优势。
Feb, 2024