DAOcc:基于3D目标检测辅助的多传感器融合用于3D占用预测
在自动驾驶领域,准确和全面地感知三维环境至关重要。本文提出了一种名为SOGDet的新方法,它利用三维语义占用分支来改善三维物体检测的准确性,通过综合视角建模物理上下文,实现了对三维环境的更全面感知。实验证明,SOGDet提高了三种基线方法在nuScenes数据集上的性能,从而有助于构建更强大的自动驾驶系统。
Aug, 2023
利用2D标签训练多视图3D占有模型,降低对昂贵的3D占有注释的依赖,并在实际应用中取得与使用3D标签全面监督的模型相当的性能。
Sep, 2023
提出了一种名为FlashOCC的插拔式预测框架,用于在维持高精度的同时实现快速和内存高效的占据预测,通过在BEV中保留特征并引入通道到高度的转换,相比现有方法在精度、运行时效率和内存开销等方面表现出更高的优势,展示了其在部署中的潜力。
Nov, 2023
本文提出了一种自监督学习方法SelfOcc,使用视频序列仅学习3D占用情况,通过将图像转换为3D空间来得到3D场景表示,并利用自监督信号优化这些表示。SelfOcc在SemanticKITTI和Occ3D上使用单帧输入相比之前最佳方法SceneRF提高58.7%,并且是首个在Occ3D上为周围摄像头产生合理的3D占用情况的自监督工作。SelfOcc在SemanticKITTI、KITTI-2015和nuScenes上达到了最先进的结果,分别在新颖深度合成、单目深度估计和环视深度估计方面实现了高质量的深度。
Nov, 2023
该研究论文介绍了OccFusion,一种直观高效的传感器融合框架,可用于预测三维占据情况。通过整合来自其他传感器(如激光雷达和环绕视图雷达)的特征,该框架提高了占据情况预测的准确性和稳健性,在nuScenes基准测试中取得了顶尖性能。
Mar, 2024
在自动驾驶中,通过分析网络效应和延迟,本文提出了一种名为FastOcc的新方法,通过用轻量级的2D BEV卷积网络代替时间消耗较大的3D卷积网络,加快模型的推理速度,同时保持准确性,从而实现了优越的性能。
Mar, 2024
基于多传感器融合的3D占用预测方法OccFusion,使用无需深度估计的多模态融合以及相应的点云采样算法,通过主动训练方法和主动粗到细流程,提高了复杂场景中预测的准确性和鲁棒性,有效优化了计算资源需求。在开放占用评测中,该方法超过了现有基于多模态的最先进方法,并且训练和推理阶段更加高效。细致的消融研究证明了我们提出的技术的有效性。
Mar, 2024
提出了一种高效的三维占据网络(EFFOcc),通过使用简单的2D算子和两阶段主动学习策略,最小化网络复杂性和标注要求,实现了业界领先的准确性,并支持改进的视觉占据预测。
Jun, 2024
本研究针对传统3D感知方法在复杂城市场景中存在的环境细节不足问题,提出了AdaOcc,一种新颖的自适应分辨率多模态预测方法。该方法在感兴趣区域内进行高精度3D重建,并通过点云表示,实现了在不同驾驶场景下的准确语义占用预测。实验结果显示,AdaOcc在近距离场景中的IOU和Hausdorff距离分别比现有基准提高超过13%和40%。
Aug, 2024
本研究解决了传统占用预测与3D物体检测在自动驾驶系统中的独立部署和协调不足的问题。通过采用2D卷积方法,提出了一种名为UltimateDO的新框架,实现这两个任务的高效协同,仅增加了1.1毫秒的计算时间,显著提升了模型在不同芯片上的部署效率及精准度。该方法在复杂的nuScenes基准上进行了实例化测试,展现出良好的性能潜力。
Sep, 2024