本研究提出了一种新的3D占据预测任务,旨在从多视图图像中估计对象的详细占据和语义信息,并介绍了Coarse-to-Fine Occupancy(CTF-Occ)网络模型,该模型在3D占据预测任务中表现出优越的性能。
Apr, 2023
通过提出一种新的3D Occupancy表示法(OccNet),并在nuScenes数据集上建立了OpenOcc,我们方法能够有效地为多个驾驶任务提供有力的支持,并取得了显著的性能收益,例如运动规划可以实现15%-58%的碰撞率降低。
Jun, 2023
利用2D标签训练多视图3D占有模型,降低对昂贵的3D占有注释的依赖,并在实际应用中取得与使用3D标签全面监督的模型相当的性能。
Sep, 2023
本文提出了一种自监督学习方法SelfOcc,使用视频序列仅学习3D占用情况,通过将图像转换为3D空间来得到3D场景表示,并利用自监督信号优化这些表示。SelfOcc在SemanticKITTI和Occ3D上使用单帧输入相比之前最佳方法SceneRF提高58.7%,并且是首个在Occ3D上为周围摄像头产生合理的3D占用情况的自监督工作。SelfOcc在SemanticKITTI、KITTI-2015和nuScenes上达到了最先进的结果,分别在新颖深度合成、单目深度估计和环视深度估计方面实现了高质量的深度。
Nov, 2023
介绍一种用于协同3D语义占据预测的方法,通过混合特征融合和车辆之间共享的压缩正交注意力特征来改进本地3D语义占据的预测,结果表明我们的协同语义占据预测在精确度和路面环境中的语义感知方面都优于单车的结果,并在后续感知应用中超越了最先进的协同3D检测技术。
Feb, 2024
在自动驾驶中,通过分析网络效应和延迟,本文提出了一种名为FastOcc的新方法,通过用轻量级的2D BEV卷积网络代替时间消耗较大的3D卷积网络,加快模型的推理速度,同时保持准确性,从而实现了优越的性能。
Mar, 2024
OccGen是一种简单但强大的生成感知模型,通过预测和消除随机高斯分布产生的噪音,逐步推断并优化占用图像。
Apr, 2024
自动驾驶领域的一项新兴感知任务是基于视觉的3D占用状态预测,该论文对其背景、挑战、研究进展和未来展望进行了综述,并提供了与该主题相关的论文、数据集和代码的收集。
May, 2024
提出了一种高效的三维占据网络(EFFOcc),通过使用简单的2D算子和两阶段主动学习策略,最小化网络复杂性和标注要求,实现了业界领先的准确性,并支持改进的视觉占据预测。
Jun, 2024
通过采用自适应前视转换和流建模的双阶段框架,我们提出了一种创新的方法,以增强3D占用和流的预测能力。我们首先独立训练占用模型,然后使用连续帧集成进行流预测。我们的方法将回归与分类相结合,以解决不同场景中的尺度变化,并利用预测的流将当前体素特征扭曲到未来帧,由未来帧的真值引导。在nuScenes数据集上的实验结果表明,我们的方法在准确性和鲁棒性方面取得了显著的改进,展示了我们方法在真实环境下的有效性。基于Swin-Base的单一模型在公共排行榜上排名第二,验证了我们方法在推进自动驾驶车辆感知系统方面的潜力。
Jul, 2024