BM2CP:利用激光雷达和相机模态进行高效的协作感知
本文介绍一种新的通过点云序列检测车辆 3D 物体的方法,采用 LiDAR 传感器解决阴影效应与 HD 地图配合,并使用 V2X 通信技术提高车辆感知性能,同时优化带宽性能.
Jul, 2023
通过合作感知技术提高自动驾驶车辆在不利环境下的视觉感知质量,采用最佳辅助车辆优化协同感知并提高目标检测准确性,特别关注行人检测,验证结果表明该方法在挑战场景中提高了协作感知性能和驾驶安全。
Apr, 2024
通过利用多传感器融合的方法,我们提出了一种名为 CoBEVFusion 的框架,将 LiDAR 和相机数据融合为鸟瞰图(BEV)表示,以改善协同感知在自动驾驶车辆中的安全性和可靠性。我们的 DWCA LiDAR-camera fusion 模型在 BEV 语义分割和 3D 物体检测任务中表现优于单模态数据和最先进的 BEV 融合模型。同时,CoBEVFusion 整体协同感知架构的性能与其他协同感知模型相当。
Oct, 2023
本文章提出了一种基于感知信息的多传感器融合策略(PMF),用于自动驾驶等应用中的 3D LiDAR 语义分割,通过两个模态的外观和空间深度信息进行感知信息融合并且提出了感知相关的损失函数用于衡量两种模式之间的差异性,实验结果证明了该方法的优越性。
Jun, 2021
本文提出了一种通过引入多智能体协作来提高仅使用摄像机的 3D 检测的方法,称为 CoCa3D。实验表明,CoCa3D 在真实数据集和两个新的模拟数据集上的表现优于之前最好的方法,并显示出摄像机在某些实际场景中可能会超越 LiDAR 的潜力。
Mar, 2023
利用协作感知和协作预测,该研究论文提出了一种使用激光雷达信号进行增强跟踪和预测能力的方法,通过实验证明了该方法在复杂情况下显著提高了自动驾驶车辆的性能。
Mar, 2024
过去十年中,虽然单一机器人感知取得了重大进展,但多机器人协同感知的研究仍未被广泛探索。本文提出了一个开创性的全面真实世界的多机器人协同感知数据集,用于推动这一领域的研究。我们的数据集利用了空中 - 地面机器人协同的未发掘潜力,具有不同的空间视角、互补的机器人移动性、覆盖范围和传感器模态。它提供了原始传感器输入、姿态估计和可选的高级感知注释,以适应各种研究兴趣。与现有主要设计用于同时定位和地图构建(SLAM)的数据集相比,我们的设置确保了多样化的传感器视角范围和足够的重叠以促进多机器人协同感知算法的研究。我们通过多个协同感知任务定性地证明了这个数据集的价值。我们相信这项工作将在多模态协同感知中解锁高级场景理解的潜在研究。
May, 2024
车联网自动驾驶开辟了发展新一代智能交通系统的有前途的方向。合作感知作为实现车联网的必要组成部分,能够克服个体感知的固有局限,包括遮挡和远程感知。我们对车联网场景下的合作感知方法进行了全面的综述,为该领域提供了深入的理解和了解。
Aug, 2023
自动泊车系统中加强环境感知一直是一个困难的任务,但是通过协同感知可以扩大车辆的视野,本文提出了一种基于 BEV 特征的协同感知网络架构,通过将道路边缘摄像机和激光雷达与车载传感器融合,有效地压缩 BEV 特征图的大小以适应 NR-V2X 网络的数据速率。通过合成的 AVP 数据集,我们观察到协同感知可以有效地提高感知性能,特别是对于行人。此外,在两种典型的安全关键场景中展示了基础设施辅助式协同感知的优势,在这两种场景中,最大安全巡航速度提高了 3m/s。
Mar, 2024
提出了一种新颖的双向互补激光雷达 - 摄像头融合框架 BiCo-Fusion,可以实现鲁棒的语义感知和空间感知的 3D 目标检测。
Jun, 2024