合作帮助相机在三维检测中超越激光雷达
本文介绍一种新的通过点云序列检测车辆 3D 物体的方法,采用 LiDAR 传感器解决阴影效应与 HD 地图配合,并使用 V2X 通信技术提高车辆感知性能,同时优化带宽性能.
Jul, 2023
本文提出一种新的协同三维物体检测框架,通过利用空间分布式传感器所提供的信息来辅助自动驾驶系统中的感知精度,同时避免因事先的通信方案导致通信拥堵和 / 或性能受限的问题。通过两个复杂的驾驶场景的实验结果和带宽使用分析,证明了该方法可以在各种检测困难情况下节省通信和计算成本,并显著提高检测性能。
May, 2022
提出了一种无与伦比的基于相机的多 UAV 协同三维物体检测范式 UCDNet,通过显式利用 UAV 到地面的深度信息作为强先验,为更准确和可推广的特征映射提供参考。此外,设计了一种同质点几何一致性损失作为辅助自监督方法,直接影响特征映射模块,从而增强多视角感知的全局一致性。在 AeroCollab3D 和 CoPerception-UAVs 数据集上的实验结果表明,与基准方法相比,我们的方法分别提高了 4.7%和 10%的 mAP,证明了 UCDNet 的优越性。
Jun, 2024
通过开发虚拟数据集 V2U-COO,设计跨领域自适应模块 CDCA 以及协同深度优化模块 CDO,本文提出了一种专门用于空中 - 地面协同感知的框架,并在虚拟数据集和公共数据集上进行了广泛实验证明了其有效性,使检测准确率分别提高了 6.1% 和 2.7%。
Jun, 2024
通过利用无标签的历史雷达数据,我们提出了一种新颖、简洁且端到端可训练的框架 AsyncDepth,用于改进单目 3D 检测器的性能,并取得了一致且显著的性能提升。
Apr, 2024
本文提出一种基于卷积神经网络将基于图像的深度图转换为假激光雷达(pseudo-LiDAR)表示的方法,从而使得使用便宜的单 ocular 或立体成像数据进行 3D 物体检测时的精度在 KITTI 数据集上大幅提高到了 22% 到 74%。
Dec, 2018
自动驾驶中,识别和追踪周围物体是必不可少的。本论文提出了一种相机 - 雷达融合模型用于三维物体检测和多目标追踪,通过合并雷达传感器的空间和速度信息,实现了检测和追踪能力的大幅提升。
Mar, 2024
提出了一种结合单目和基于点云的三维检测的平衡方法,使用低成本、低分辨率的传感器获取仅有 512 个点,然后将这有限的三维信息与单张图像结合重建完整的三维点云,通过与多模态现成的三维检测器结合使用,使得三维检测的准确率相比于最新的单目检测方法提高了 20%,相对于基准多模态方法在 KITTI 和 JackRabbot 数据集上提高了 6% 到 9%。
Apr, 2024
使用 LiDAR 和相机实现高效多模态感知的协作感知范式 BM2CP,可以解决多代理间传感器缺失的特殊情况,且在模拟和真实自动驾驶场景中通过较低的通信量超越了现有方法。
Oct, 2023
该研究论文介绍了一种端到端的一致性目标检测算法框架,能够同时获取点云和图像中物体的位置并建立它们之间的关联,通过新的一致性精度评估指标验证了该框架的准确性,实验结果表明该方法具有优秀的检测性能和鲁棒性。
May, 2024