BAD-Gaussians:捆绑调整模糊高斯喷塗
我们提出了三个关键要素,可实现高质量的实时(大于等于30帧/秒)1080p分辨率的新视图合成,其中包括使用3D高斯函数表示场景、优化3D高斯函数的相关参数以准确表示场景,并开发了一种快速的可见性感知渲染算法,以加速训练并实现实时渲染。
Aug, 2023
本文研究了神经渲染、相机位姿、Neural Radiance Fields、3D Gaussian Splatting以及新视角合成等主题,通过使用显式几何表示和输入视频流的连续性,实现了无需任何SfM预处理的新视角合成。该方法在大运动变化下显著改善了先前方法在视角合成和相机姿态估计方面的性能。
Dec, 2023
使用可变形3D高斯方法进行动态场景重建,将高斯飞溅效果扩展以适应通过多层感知器定义的时间相关变形场的可变形高斯集合的表示,同时使用静态高斯点云允许多层感知器集中其表示能力,最终优化得到与状态最前沿的动态神经辐射场方法相媲美且具有更快的优化和渲染速度。
Dec, 2023
我们提出了一种紧凑的场景表示方法,将三维高斯扩散模型的参数组织成具有局部均匀性的二维网格,从而实现了存储需求的大幅度降低,同时在渲染过程中不影响视觉质量。
Dec, 2023
通过应用渐进传播策略,并利用场景的先验知识和块匹配技术,我们提出了一种名为GaussianPro的新方法,来指导3D高斯聚类的密度化,验证实验证明了我们的方法在大规模和小规模场景上的有效性。
Feb, 2024
通过使用3D高斯喷洒来优化运动模糊图像中的清晰3D场景,我们的方法DeblurGS克服了初始相机姿态获取中的不准确性并实现了最先进的去模糊和新视角合成性能。
Apr, 2024
通过矩阵和张量分解技术,我们提出了一种新方法,即因式化三维高斯粒子点描(F-3DGS),通过高效的因式化,大大减少了存储需求,同时保持了渲染图像的质量。
May, 2024
使用变形的多层感知器(MLP)网络捕捉动态偏移的高斯点并通过哈希编码和小型MLP来表示点的颜色特征,引入可学习的去噪掩模结合去噪损失以从场景中消除噪点,通过静态约束和运动一致性约束减轻点的运动噪声,实验证明我们的方法在渲染质量和速度上超过了现有方法,同时显著减少了与3D-GS相关的内存使用,非常适用于新的视角合成和动态建图等任务。
May, 2024