从混沌到清晰:黑暗中的 3DGS
LE3D 通过引入三维高斯散射、锥形散射初始化、颜色 MLP 和深度失真及近远程规范化方法,实现了基于体积渲染的实时新视角合成、HDR 渲染、重点调整和色调映射,同时降低了训练时间和提高了渲染速度。
Jun, 2024
使用高动态范围高斯点云模型和多层感知器(MLP)调制,建立了一种新的高动态范围高斯喷点(HDR-GS)框架,以有效渲染新的高动态范围(HDR)视图和重建低动态范围(LDR)图像,并通过两个并行可微光栅化(PDR)过程对 HDR 和 LDR 视图进行重建。实验证明,该方法在 LDR 和 HDR NVS 上分别超过了现有的 NeRF 方法 3.84 和 1.91 dB,同时拥有 1000 倍的推理速度和仅需 6.3%的训练时间。
May, 2024
Wild-GS 是一种针对无约束的照片集合进行优化的 3D 高斯粒子着色方法,它通过将引用视图的像素外观特征与相应的局部高斯进行对齐来有效地将高频细节的外观传输到 3D 空间,并在训练和推断中实现了最高的渲染性能和效率。
Jun, 2024
我们提出了一种从稀疏训练视角中训练一致的基于 3DGS 的辐射场的方法,通过集成深度先验、生成和显式约束来减少背景折叠、移除浮点值,并增强来自未见视角的一致性,实验证明我们的方法在 MipNeRF-360 数据集上以较少的训练和推理成本超过了基本的 3DGS 的 30.5% 和基于 NeRF 的方法的 15.6%。
Nov, 2023
基于神经渲染技术,本研究提出了一种使用 3D Half-Gaussian 核的方法,以改进当前 3D Gaussian splatting 方法的性能,在不影响渲染速度的情况下,在多个数据集上获得了最先进的渲染性能。
Jun, 2024
基于 3D 高斯扩散的新视角合成方法在各种场景下表现出了良好的性能,本文提出了一种高效的基于点的可微渲染框架,用于从照片集合中重建场景,通过引入基于残差的球谐系数传输模块,将 3D 高斯扩散方法适应于不同的光照条件和光度后处理,同时引入了一个轻量级的空间注意力模块,可同时预测暂时遮挡物和隐含外观表示,实验结果表明,该方法在新视角和外观合成的渲染质量上优于现有方法,并拥有较高的收敛速度和渲染速度。
Jun, 2024
通过在有限预算内进行训练和渲染,提出了一种改进的 3D 高斯粉碎(3DGS)模型,实现了较快速、高质量的新视图合成,并减少了模型大小和训练时间。
Jun, 2024
通过结构化的高斯表示和正则化优化,以及深度基于初始化来解决三维重建中稀疏输入图像的挑战,提高了与现有方法相比的重建质量。
Mar, 2024
通过学习高保真度的 4D 高斯点云分割场景表征,自校准相机参数,以及联合优化相机参数和 3D 结构,我们的方法在 4D 新视图合成方面展现出了显著的改进。
Jun, 2024
提出了 Super-Resolution 3D Gaussian Splatting (SRGS) 方法,通过在高分辨率空间中进行优化,引入亚像素约束并与预训练的 2D 超分辨率模型集成,以有效增强原语的表示能力。在 HRNVS 方面实现高质量渲染,优于 Mip-NeRF 360 和 Tanks & Temples 等挑战性数据集上的现有方法。
Apr, 2024