提出了一种多摄像机系统来实现密集的三维重建和自我运动估计,通过多摄像机间的几何估计和单目深度优化来获得鲁棒的几何深度和姿态估计,同时通过深度优化网络引入可学习的场景先验,从而在具有挑战性的动态室外环境中实现了稠密、一致的三维重建。
Aug, 2023
利用 Lidar 数据改善街景下基于神经辐射场的光线追踪和视图合成技术。
May, 2024
从由摄像头和扫描器捕捉的 RGB 图像和激光雷达扫描序列中,使用我们的扩展方法,生成具有深度信息的 3D 表面,以及合成新颖的 RGB 图像。
Nov, 2021
该研究论文提出了一种基于截断有符号距离函数的 NeRF 框架的 3D 重建方法,结合 RGB-D 传感器和相机细化技术,得到高质量的空间重建结果。
Apr, 2021
介绍了一种联合训练 3D 目标检测和单目稠密深度重建神经网络的方法,通过 LiDAR 点云和单个 RGB 图像生成物体姿态预测和密集重建深度,其中 LiDAR 点云被转换为一组体素并使用 3D 卷积层提取特征,通过另一个 2D 卷积神经网络提取相应的 RGB 图像特征,并使用这些组合特征来预测密集深度图。
我们提出了一种适用于动态城市环境的新颖分解辐射场方法,通过多级神经场景图表示来估计大规模动态区域的辐射场,并采用快速复合光线采样和渲染技术进行有效的训练和渲染,通过新的视图合成基准测试,我们证明了该方法在更多方面的性能优于先前的方法。
Mar, 2024
本文提出了一种新的神经重建方法,使用可访问的 2D 图像作为监督来进行 3D 场景重建,其中通过引入二进制带注符号距离函数、色彩场和概率场等方法实现了场景的重建,并引入了几何和平面约束以实现对场景复杂几何区域和低纹理区域的重建。
Jun, 2023
该研究提出使用隐式密度场而非神经辐射场作为图像的几何场景表示,通过自监督训练神经网络能够在单个前向传递中预测该场景表示,并且可以在深度预测和新视角合成方面进行体积渲染。实验表明,该方法能够预测出输入图像中遮挡区域的有意义几何信息。
Jan, 2023
通过无缝融合 RGB 传感器到 Lidar 的 3D 识别中,我们提出了一个简单而有效的多模态检测器,该方法利用一组 2D 检测生成密集的虚拟 3D 点,能够增强原来稀疏的 3D 点云,实验结果在大规模 nuScenes 数据集上取得了显着的改进,并超过了竞争融合方法。
本文提出了一种通过 LiDAR 测量单独重建大规模三维语义场景的新方法,使用隐式表示进行建模。通过浅层多层感知机(MLPs)从隐式特征解码出语义信息和有符号距离值,并采用自监督策略和伪监督策略进行隐式特征和 MLPs 参数的联合优化,最后利用 Marching Cubes 算法对场景进行推断阶段的细分和可视化。与当前最先进的 3D 建图方法相比,我们的框架在三个真实数据集,SemanticKITTI,SemanticPOSS 和 nuScenes 上表现出了很高的效果和效率。
Nov, 2023