GRay:基于 GPU 的大规模并行光线追踪相对论时空代码
本文提出一种基于 3D 高斯飞溅的 X 射线新视图合成框架(X-Gaussian),通过重新设计辐射高斯点云模型和定制化角姿态立方体均匀初始化策略(ACUI),实现了超过 73 倍的推理速度和 6.5 dB 的性能提升,同时适用于稀疏视图 CT 重建等实际应用。
Mar, 2024
这篇论文介绍了 GGRt,一种新颖的通用新视角合成方法,它减轻了对真实相机位姿、处理高分辨率图像的复杂性和冗长的优化过程的需要,从而促进了 3D 高斯喷溅(3D-GS)在实际场景中的更强适用性。
Mar, 2024
快速可靠的形状重建是许多计算机视觉应用的关键要素。神经辐射场证明了逼真的新视角合成是可行的,但在对实景和物体进行快速重建方面要求表现。最近的几种方法基于其他形状表示,特别是 3D 高斯函数。我们对这些渲染器进行扩展,例如集成可微分光流、导出满封闭网格和按射线渲染法线。此外,我们展示了两种最近方法之间的互操作性。这些重建速度快、鲁棒,并且可以在 GPU 或 CPU 上轻松执行。详细的代码和可视化示例请参见网址:https:// 此处为网址
Aug, 2023
本研究提出了一种名为 RadSplat 的轻量级方法,用于复杂场景的鲁棒实时渲染。该方法通过使用辐射场作为先验和监督信号来优化基于点的场景表示,提高了渲染质量和鲁棒优化。同时,我们开发了一种新颖的剪枝技术,减少了点的数量且保持高质量,使场景表示更小、更紧凑,并具有更快的推理速度。此外,我们提出了一种新颖的测试时间滤波方法,进一步加快了渲染速度,并可以扩展到更大的场景。实验证明,我们的方法实现了 900 + 帧每秒的复杂场景综合效果,达到了最先进水平。
Mar, 2024
我们提出了三个关键要素,可实现高质量的实时(大于等于 30 帧 / 秒)1080p 分辨率的新视图合成,其中包括使用 3D 高斯函数表示场景、优化 3D 高斯函数的相关参数以准确表示场景,并开发了一种快速的可见性感知渲染算法,以加速训练并实现实时渲染。
Aug, 2023
本文提出了一种名为高斯时间机器(Gaussian Time Machine,GTM)的方法,通过使用离散化的时间嵌入向量由轻量级的多层感知机(Multi-Layer-Perceptron,MLP)解码来建模高斯图元的时间依赖属性。通过调整高斯图元的不透明度,我们可以重建物体的可见性变化,并进一步提出了一种分解颜色模型以改善几何一致性。GTM 在三个数据集上实现了最先进的渲染保真度,并且在渲染方面比基于 NeRF 的对应方法快 100 倍。此外,GTM 成功地解开外观变化并呈现平滑的外观插值。
May, 2024
本研究提出了一种端到端的反演渲染管道,该管道包括可完全不可微的渲染器,可以从一组 RGB 输入图像重新构建几何,材料和照明,并使用球形高斯混合表示光谱 BRDF 和环境光,并将几何表示为一个多层感知器参数化的有符号距离函数。使用球形高斯函数使我们能够有效地求解近似光传输问题,并且我们的方法适用于在自然的静态照明下捕获的具有挑战性的非 Lambertian 反射场景。我们证明了我们的重构不仅使新视点的渲染成为可能,而且还可以对材料和照明进行物理基础的外观编辑。
Apr, 2021
本文介绍了一种新的分析合成技术,通过鲁棒的粗到细优化和基于物理的可微分渲染,能够重新构建现实世界对象的形状和外观,统一处理几何和反射的优化,利用图像梯度获得物理精度的梯度估计。
Mar, 2021
通过使用高斯喷洒技术,我们提出了 RTG-SLAM,一个用于大规模环境的实时 3D 重建系统。与现有的基于 NeRF 的 RGBD SLAM 相比,我们的系统在速度和内存成本方面取得了可比的高质量重建,并且在新视角合成的逼真度和相机跟踪准确性上表现出更好的性能。
Apr, 2024
使用高动态范围高斯点云模型和多层感知器(MLP)调制,建立了一种新的高动态范围高斯喷点(HDR-GS)框架,以有效渲染新的高动态范围(HDR)视图和重建低动态范围(LDR)图像,并通过两个并行可微光栅化(PDR)过程对 HDR 和 LDR 视图进行重建。实验证明,该方法在 LDR 和 HDR NVS 上分别超过了现有的 NeRF 方法 3.84 和 1.91 dB,同时拥有 1000 倍的推理速度和仅需 6.3%的训练时间。
May, 2024