FlashOcc: 通过通道到高度插件实现快速和内存高效的占用预测
利用2D标签训练多视图3D占有模型,降低对昂贵的3D占有注释的依赖,并在实际应用中取得与使用3D标签全面监督的模型相当的性能。
Sep, 2023
本文提出了一种自监督学习方法SelfOcc,使用视频序列仅学习3D占用情况,通过将图像转换为3D空间来得到3D场景表示,并利用自监督信号优化这些表示。SelfOcc在SemanticKITTI和Occ3D上使用单帧输入相比之前最佳方法SceneRF提高58.7%,并且是首个在Occ3D上为周围摄像头产生合理的3D占用情况的自监督工作。SelfOcc在SemanticKITTI、KITTI-2015和nuScenes上达到了最先进的结果,分别在新颖深度合成、单目深度估计和环视深度估计方面实现了高质量的深度。
Nov, 2023
稀疏三维表示的实例感知的全稀疏全景占用网络(SparseOcc)通过稀疏的实例查询和基于掩模引导的稀疏采样,以及在先前8帧的时间建模的融合,实现了自主驾驶的占用预测,同时在Occ3D-nus数据集上达到了26.0的平均交并比(mIoU),并保持着25.4 FPS的实时推理速度。
Dec, 2023
在自动驾驶中,通过分析网络效应和延迟,本文提出了一种名为FastOcc的新方法,通过用轻量级的2D BEV卷积网络代替时间消耗较大的3D卷积网络,加快模型的推理速度,同时保持准确性,从而实现了优越的性能。
Mar, 2024
提出了一种高效的三维占据网络(EFFOcc),通过使用简单的2D算子和两阶段主动学习策略,最小化网络复杂性和标注要求,实现了业界领先的准确性,并支持改进的视觉占据预测。
Jun, 2024
在自动驾驶中,我们提出了一种地理语义双分支网络和地理语义解耦学习策略,用于高效准确地预测空间占用度,通过在BEV和体素空间提取特征并进行特征融合,我们的方法在Occ3D-nuScenes基准上取得了39.4 mIoU和20.0 FPS的性能,比CVPR2023 3D Occupancy Prediction Challenge的冠军更快3倍,mIoU更高1.9。
Jul, 2024
本研究针对传统3D感知方法在复杂城市场景中存在的环境细节不足问题,提出了AdaOcc,一种新颖的自适应分辨率多模态预测方法。该方法在感兴趣区域内进行高精度3D重建,并通过点云表示,实现了在不同驾驶场景下的准确语义占用预测。实验结果显示,AdaOcc在近距离场景中的IOU和Hausdorff距离分别比现有基准提高超过13%和40%。
Aug, 2024
本研究解决了传统占用预测与3D物体检测在自动驾驶系统中的独立部署和协调不足的问题。通过采用2D卷积方法,提出了一种名为UltimateDO的新框架,实现这两个任务的高效协同,仅增加了1.1毫秒的计算时间,显著提升了模型在不同芯片上的部署效率及精准度。该方法在复杂的nuScenes基准上进行了实例化测试,展现出良好的性能潜力。
Sep, 2024
本研究针对现有占用预测方法忽视长期时间信息的不足,提出了一种名为TEOcc的雷达-相机多模态时间增强占用预测网络。该方法引入时间增强分支,通过对相邻帧和多模态输入信息进行处理,实现准确的3D占用预测,实验结果表明TEOcc在nuScenes基准测试中实现了最先进的预测性能,并且其时间增强模块具备良好的兼容性,能够提升现有占用预测方法的性能。
Oct, 2024
本研究解决了3D语义占用预测中的特征融合效率低下和计算成本高的问题。我们提出的OccLoff框架通过采用稀疏融合编码器和适应性重样本加权算法,显著提升了模型准确性并减少了计算开销。实验证明,该框架在多项基准测试中表现优越,展示了其对不同占用模型的增强潜力。
Nov, 2024