EFFOcc: 融合效率的三维占据网络的最小基线
本研究提出了一种新的 3D 占据预测任务,旨在从多视图图像中估计对象的详细占据和语义信息,并介绍了 Coarse-to-Fine Occupancy (CTF-Occ) 网络模型,该模型在 3D 占据预测任务中表现出优越的性能。
Apr, 2023
在自动驾驶中,通过分析网络效应和延迟,本文提出了一种名为 FastOcc 的新方法,通过用轻量级的 2D BEV 卷积网络代替时间消耗较大的 3D 卷积网络,加快模型的推理速度,同时保持准确性,从而实现了优越的性能。
Mar, 2024
本文提出了 GEOcc,一种适用于仅使用视觉的全景视图感知的几何增强占用网络,它通过将环视图图像转换为密集的三维网格内的集成几何和语义表示来实现对三维占用的感知,解决了目前模型面临的两个主要挑战:在二维至三维视图变换阶段准确建模深度,以及由于稀疏的 LiDAR 监督引起的泛化问题的缺乏。
May, 2024
通过提出一种新的 3D Occupancy 表示法 (OccNet),并在 nuScenes 数据集上建立了 OpenOcc,我们方法能够有效地为多个驾驶任务提供有力的支持,并取得了显著的性能收益,例如运动规划可以实现 15%-58%的碰撞率降低。
Jun, 2023
基于多传感器融合的 3D 占用预测方法 OccFusion,使用无需深度估计的多模态融合以及相应的点云采样算法,通过主动训练方法和主动粗到细流程,提高了复杂场景中预测的准确性和鲁棒性,有效优化了计算资源需求。在开放占用评测中,该方法超过了现有基于多模态的最先进方法,并且训练和推理阶段更加高效。细致的消融研究证明了我们提出的技术的有效性。
Mar, 2024
本文提出了一种自监督学习方法 SelfOcc,使用视频序列仅学习 3D 占用情况,通过将图像转换为 3D 空间来得到 3D 场景表示,并利用自监督信号优化这些表示。SelfOcc 在 SemanticKITTI 和 Occ3D 上使用单帧输入相比之前最佳方法 SceneRF 提高 58.7%,并且是首个在 Occ3D 上为周围摄像头产生合理的 3D 占用情况的自监督工作。SelfOcc 在 SemanticKITTI、KITTI-2015 和 nuScenes 上达到了最先进的结果,分别在新颖深度合成、单目深度估计和环视深度估计方面实现了高质量的深度。
Nov, 2023
该研究论文介绍了 OccFusion,一种直观高效的传感器融合框架,可用于预测三维占据情况。通过整合来自其他传感器(如激光雷达和环绕视图雷达)的特征,该框架提高了占据情况预测的准确性和稳健性,在 nuScenes 基准测试中取得了顶尖性能。
Mar, 2024
稀疏三维表示的实例感知的全稀疏全景占用网络 (SparseOcc) 通过稀疏的实例查询和基于掩模引导的稀疏采样,以及在先前 8 帧的时间建模的融合,实现了自主驾驶的占用预测,同时在 Occ3D-nus 数据集上达到了 26.0 的平均交并比 (mIoU),并保持着 25.4 FPS 的实时推理速度。
Dec, 2023
OctreeOcc 是一种创新的 3D 占用预测框架,通过利用八叉树表示来自适应地捕捉 3D 中的有价值信息,以适应不同尺寸和复杂度的对象形状和语义区域。通过改善初始八叉树结构的准确性和设计有效的矫正机制来优化八叉树结构。在广泛的评估中,OctreeOcc 不仅在占用预测方面超越了最先进的方法,而且与基于密集网格的方法相比,还减少了 15%-24% 的计算开销。
Dec, 2023
本技术报告介绍了 UniOCC 解决方案,它采用空间几何约束和体积光线渲染来提高 3D 占用预测性能,从而在 CVPR2023 的 nuScenes Open Dataset Challenge 中获得了 51.27%的 mIoU,在 3D 占用注释成本方面具有很大的潜力。
Jun, 2023