实时通用多任务的一次全部观察
本文介绍了一种新的实时多任务网络,包括单目三维物体检测、语义分割和密集深度估计,通过引入任务自适应注意力生成器来解决多任务学习中普遍存在的负迁移问题,并利用硬参数共享方法提高效率,能够同时处理多个任务,尤其是三维物体检测,并保持实时处理速度。经过在 Cityscapes-3D 数据集上的严格优化和深入剖析研究,我们的网络始终优于各种基准模型。
Mar, 2024
本文提出了一种基于 LiDAR 传感器和多任务网络的感知系统,用于自主驾驶中的目标检测和道路识别,取得了良好的实验效果和在线定位能力。
Mar, 2021
本文提出了一种用于驾驶区域和车道线分割的轻量级模型 ——TwinLiteNet,该模型设计成低成本但能够达到准确和高效的分割结果。我们在 BDD100K 数据集上评估了 TwinLiteNet,并与现代模型进行了比较。实验结果表明,TwinLiteNet 与现有方法表现相似,但需要更少的计算资源。尤其是对于可行驶区域任务,TwinLiteNet 的 mIoU 得分为 91.3%,车道检测任务的 IoU 为 31.08%,仅使用了 40 万个参数,在 GPU RTX A5000 上实现了 415FPS。此外,TwinLiteNet 可以在计算能力有限的嵌入式设备上实时运行,特别是在 Jetson Xavier NX 上可以达到 60FPS,使其成为自动驾驶车辆的理想解决方案。
Jul, 2023
通过提出一种高效的量化感知网联驾驶模型(Q- YOLOP)来实现目标检测、可行驶区域分割、车道线分割,其采用高效层聚合网络(ELAN)作为主干,并在 BDD100K 数据集上具有在 [email protected] 为 0.622 的最新性能和分割的 mIoU 为 0.612,同时保持较低的计算和内存要求。
Jul, 2023
近期,随着计算机视觉的不断进步,自动驾驶很可能很快将成为现代社会的一部分。然而,仍然有许多需要解决的问题。本研究评估了我们先前提出的高效行人检测器 LSFM 在多样化的天气条件和夜间场景等经典自动驾驶测试中的稳健性,并将其扩展应用于交通场景中实时物体检测,同时提出了适用于自动驾驶的更合适的实时性能指标。
Jan, 2024
本文介绍了一种使用多视角 LiDAR 点云的双阶段深度神经网络,用于多类目标检测和行驶空间分割,通过两个阶段的处理,能够在挑战性的场景中使用单个 LiDAR 扫描作为输入同时检测和分类物体,同时确定驾驶空间,该系统在配备于自动驾驶汽车的嵌入式 GPU 上能够高效运行,并展示了在 KITTI 数据集和更大型的内部数据集上的测试结果。
Jun, 2020
LiDAR 在自动驾驶中具有重要作用,本文提出了一种基于 LiDAR 的实时多任务卷积神经网络,用于对象检测、语义分割和运动分割,并在汽车级嵌入式平台上实现了 3ms 延迟,取得了语义分割和运动分割的最新成果以及 3D 物体检测的接近最新成果。
Jul, 2023
我们提出了一种全景驾驶感知网络(YOLOP),它可以同时执行交通物体检测、可驾驶区域分割和车道检测三个任务,并在嵌入式设备 Jetson TX2 上实现了实时性的高精度表现。
Aug, 2021