GauU-Scene V2: 高斯点云投影与 NeRF 方法表明几何重建存在不可靠性的激光雷达图像数据集
我们引入了一种新颖的大规模场景重建基准测试,通过使用新开发的三维表示方法 —— 高斯插值法在我们广泛的 U-Scene 数据集中。U-Scene 包含了一个半平方千米以上的区域,具有综合 RGB 数据集和 LiDAR 地面真实数据。我们使用了 Matrix 300 无人机配备高精度的 Zenmuse L1 LiDAR 来获取数据,从而实现了精确的屋顶数据采集。这个数据集提供了一个独特的城市和学术环境的结合,用于高级空间分析,覆盖面积超过了 1.5km^2。我们使用高斯插值法对 U-Scene 进行了评估,并从各种新颖的视角进行了详细分析。我们还将这些结果与我们准确的点云数据集进行对比,突出了多模态信息结合的重要性。
Jan, 2024
使用 Google Earth 图像构建了基于 3D 高斯光斑模型的滑铲三维重建模型,利用视图合成模型实现了比基于神经辐射场更好的三维视图合成结果,并通过多视图稠密重建对场景的三维几何和照明进行了重建。
May, 2024
设计一种新的紧密耦合的 LiDAR-Camera 高斯扩散 (TCLC-GS) 方法,充分利用 LiDAR 和相机传感器的优势,实现快速高质量的 3D 重建和新视角 RGB / 深度合成,通过富含上下文信息的 3D 网格和隐式特征来丰富 3D 高斯扩散的属性和优化过程。
Apr, 2024
我们提出了一种新的稠密同时定位与建图(SLAM)方法,该方法使用高斯斑点作为场景表示。该新的表示方法能够实时重建和真实渲染真实世界和合成场景,并通过提出新的策略来扩展高斯斑点的应用,使其从多视角离线场景扩展到顺序单色 RGBD 输入数据的设置。此外,我们还将高斯斑点扩展到编码几何并通过跟踪在此场景表示上进行实验。我们的方法在真实世界和合成数据集上实现了最先进的渲染质量,同时在重建性能和运行时间方面具有竞争力。
Dec, 2023
通过使用 3D 高斯平铺方法,结合 LiDAR 和相机数据,本研究提出了一种新颖的系统用于 3D 制图和视觉重定位,能够创造环境的准确且逼真的表示。通过利用 LiDAR 数据来初始化 3D 高斯平铺地图的训练,本系统构建了既详细又几何精确的地图。通过组合 2D 体素地图和 KD 树,以减少 GPU 内存使用和实现快速空间查询,从而使我们的方法适用于视觉定位任务,并能够通过归一化交叉相关 (NCC) 在高斯平铺地图和查询图像之间高效地识别对应关系。此外,通过基于特征匹配和透视点(PnP)技术来细化查询图像的相机姿势。通过对 KITTI360 数据集的广泛评估,证明了我们系统的有效性、适应性和精确性。
Mar, 2024
VastGaussian 是基于 3D 高斯平面分割的大型场景重建和实时渲染的首个方法,通过渐进的分割策略和外观建模的优化过程,在多个大型场景数据集上实现了超出现有 NeRF 方法的最新成果,实现了快速优化和高保真实时渲染。
Feb, 2024
大型车库建模中的挑战以及一种利用 LiDAR 辅助的高斯打点方法进行车库建模和渲染的引入。使用手持式扫描仪 Polar 收集的 LiDAR 点云增强了车库场景建模和渲染的算法,提出了一种新颖的深度正则化器,同时探索了传统网格和现代高斯建模的混合表示,达到内存性能和渲染质量的最佳平衡。
Apr, 2024
基于 RGB 图像的城市场景的整体理解是一个具有挑战性但重要的问题,本文提出了一种利用三维高斯点云分布的新型管道,通过联合优化几何、外观、语义和动作,实现对城市场景的整体理解,并在实验证明了我们方法的有效性。
Mar, 2024
RT-GS2 是第一个能够实现实时泛化的 3D 高斯渲染中语义分割方法,通过提取独立于视角的 3D 高斯特征并采用新颖的视角相关 / 独立特征融合,能够在不同视角下提升语义一致性,超过同领域最先进方法的语义分割质量达到 8.01%的提高,并以每秒 27.03 帧的实时性能,相比现有方法提速达 901 倍,这一工作在引入光辐射场 3D 高斯表达领域的语义分割上代表了重大进展。
May, 2024