单视角三维重建中,一个像素价值高于三个 3D 高斯函数
我们介绍了 Splatter Image,这是一种超快的单目三维物体重建方法,运行速度达到每秒 38 帧。Splatter Image 基于高斯颗粒化技术,该技术近期实现了实时渲染、快速训练和出色的多视角重建扩展性。我们首次将高斯颗粒化应用于单目重建领域。我们的方法基于学习,测试时只需要前馈评估一个神经网络即可完成重建。Splatter Image 的主要创新之处在于其设计意外地简单:它使用一个二维图像到图像的网络将输入图像映射到每个像素点上的一个三维高斯。因此,所得到的高斯形式呈现为一张图像,即 Splatter Image。我们进一步扩展了该方法,使用多个图像作为输入,并通过添加交叉视图注意力来实现。由于渲染器的速度(每秒 588 帧),我们可以在训练时只使用一个 GPU,在每次迭代中生成整个图像,以优化 LPIPS 等感知度量标准。在标准基准测试中,我们不仅展示了快速重建,而且在 PSNR、LPIPS 和其他度量标准方面相比最近和更昂贵的基线方法取得了更好的结果。
Dec, 2023
我们介绍了 pixelSplat,这是一个前馈模型,可以从图像对中学习重建由 3D 高斯基元参数化的 3D 辐射场。我们的模型具有实时和内存高效的渲染,可进行可扩展训练和快速 3D 重建。为了克服稀疏和局部表示固有的局部最小值问题,我们预测了 3D 上的密集概率分布,并从该概率分布中采样高斯均值。我们通过参数化技巧使采样操作可微分,从而使得我们能够通过高斯平铺表示进行梯度反向传播。我们在现实世界的 RealEstate10k 和 ACID 数据集上对我们的方法进行了广泛的基线新视角合成基准测试,表明我们在重建可解释和可编辑的 3D 辐射场时,胜过现有最先进的光场转换器,并且加快了渲染速度 2.5 个数量级。
Dec, 2023
图像基于的三维重建是一项具有挑战性的任务,涉及从一组输入图像中推断出对象或场景的三维形状。基于学习的方法因其直接估计三维形状的能力而受到关注。本综述论文着重介绍了三维重建的最新技术,包括生成新颖未见视角的方法。论文提供了对高斯激波方法的最新发展的概述,包括输入类型、模型结构、输出表示和训练策略。未解决的挑战和未来的研究方向也得到了讨论。鉴于该领域的快速进展以及增强三维重建方法的众多机会,对算法进行全面的研究至关重要。因此,本研究全面概述了高斯激波最新进展。
May, 2024
这篇论文主要研究了使用高斯喷洒表示三维物体和场景,以提高渲染速度,但存储和传输开销较大的问题。作者提出了一种新的表示方法,在保持类似或改善质量的同时极大地减小硬盘占用空间,并能够在移动设备上实时高效地运行。他们的关键观察是场景中的相邻点可以共享相似的表示,因此只需要存储少量的三维点。作者还引入了一种方法来识别这些相邻点,称为父点,通过小型多层感知器可以有效地预测被丢弃的子点及其属性。
Jun, 2024
我们提出了一种新颖的实时去模糊框架,利用小型多层感知机(MLP)操纵每个 3D 高斯的协方差来建模场景的模糊程度,从模糊的图像中重构出细节清晰的图像,实现实时渲染。
Jan, 2024
从稀疏视图中重建和渲染 3D 物体是促进 3D 视觉技术应用和提高用户体验的关键。本文提出了 GaussianObject 框架,通过高斯散射达到高质量渲染,仅需 4 张输入图像,解决了构建多视角一致性和补充遗漏物体信息的困难,同时在多个数据集上显示出卓越的重建效果,超越现有方法。
Feb, 2024
提出了一种名为 Superpoint Gaussian Splatting(SP-GS)的新框架,该框架通过使用显式的 3D 高斯函数来重构场景,并将具有相似属性的高斯函数聚类成超点,从而实现了对动态场景的实时渲染,获得了最新的视觉质量。
Jun, 2024
使用一组高斯椭球来模拟场景,从而实现高效渲染,3D 高斯喷涂表示法具有快速渲染、动态重建、几何编辑和物理模拟等优点。本文通过对最近的 3D 高斯喷涂方法进行文献综述,提供了一个 3D 高斯喷涂方法的分类,包括 3D 重建、3D 编辑和其他功能应用,以及传统的基于点的渲染方法和 3D 高斯喷涂的渲染公式,旨在帮助初学者快速了解这一领域并为经验丰富的研究者提供全面的概述,以推动 3D 高斯喷涂表示法的未来发展。
Mar, 2024
提出了一种名为 Pixel-GS 的新方法,通过考虑每个视图中高斯函数覆盖的像素数量来计算增长条件,从而促进大型高斯函数的增长,实现了更精确、更详细的重构,同时保持实时渲染速度和最新的渲染质量。
Mar, 2024
我们提出了一种称为 MVSplat 的高效前馈 3D 高斯分割模型,通过稀疏多视图图像进行学习。为了准确定位高斯中心,我们通过在三维空间中进行平面扫描来建立成本体积表示,其中成本体积中存储的跨视图特征相似性可以为深度估计提供宝贵的几何线索。我们在只依靠光度监督的情况下,同时学习高斯原始图的透明度、协方差和球面谐波系数。通过广泛的实验评估,我们展示了成本体积表示在学习前馈高斯分割模型中的重要性。在大规模的 RealEstate10K 和 ACID 基准测试中,我们的模型以最快的前馈推断速度(22 帧 / 秒)实现了最先进的性能。与最新的最先进方法 pixelSplat 相比,我们的模型使用的参数数量少了 10 倍,推断速度更快了两倍,同时还提供更高的外观和几何质量以及更好的跨数据集泛化能力。
Mar, 2024