UVCPNet: 无人机 - 车辆协作感知网络用于 3D 目标检测
提出了一种无与伦比的基于相机的多 UAV 协同三维物体检测范式 UCDNet,通过显式利用 UAV 到地面的深度信息作为强先验,为更准确和可推广的特征映射提供参考。此外,设计了一种同质点几何一致性损失作为辅助自监督方法,直接影响特征映射模块,从而增强多视角感知的全局一致性。在 AeroCollab3D 和 CoPerception-UAVs 数据集上的实验结果表明,与基准方法相比,我们的方法分别提高了 4.7%和 10%的 mAP,证明了 UCDNet 的优越性。
Jun, 2024
本文介绍一种新的通过点云序列检测车辆 3D 物体的方法,采用 LiDAR 传感器解决阴影效应与 HD 地图配合,并使用 V2X 通信技术提高车辆感知性能,同时优化带宽性能.
Jul, 2023
通过利用多传感器融合的方法,我们提出了一种名为 CoBEVFusion 的框架,将 LiDAR 和相机数据融合为鸟瞰图(BEV)表示,以改善协同感知在自动驾驶车辆中的安全性和可靠性。我们的 DWCA LiDAR-camera fusion 模型在 BEV 语义分割和 3D 物体检测任务中表现优于单模态数据和最先进的 BEV 融合模型。同时,CoBEVFusion 整体协同感知架构的性能与其他协同感知模型相当。
Oct, 2023
本文提出一种新的协同三维物体检测框架,通过利用空间分布式传感器所提供的信息来辅助自动驾驶系统中的感知精度,同时避免因事先的通信方案导致通信拥堵和 / 或性能受限的问题。通过两个复杂的驾驶场景的实验结果和带宽使用分析,证明了该方法可以在各种检测困难情况下节省通信和计算成本,并显著提高检测性能。
May, 2022
合作感知技术对提升自主车辆能力和道路安全具有多方面的好处,使用路侧传感器以及车载传感器可以提高可靠性和扩展传感器范围。我们提出了一种合作多模态融合模型 CoopDet3D 和感知数据集 TUMTraf-V2X,用于合作式三维物体检测和跟踪任务。通过多次实验,我们证明了相对于车载摄像头 - LiDAR 融合模型,我们的 CoopDet3D 摄像头 - LiDAR 融合模型在三维 mAP 上实现了 + 14.36 的提高。最后,我们将我们的数据集、模型、标注工具和开发套件公开发布在我们的网站上。
Mar, 2024
借助 LiDAR 3D 点云技术,基于来自联网汽车不同位置和角度的传感器数据融合,提出一种基于点云的 3D 物体检测方法,拓展感知区域、提高检测准确性、促进增强结果,同时通过现有的车联网技术,可实现利用点云数据进行协同感知。
May, 2019
本文提出了一种通过引入多智能体协作来提高仅使用摄像机的 3D 检测的方法,称为 CoCa3D。实验表明,CoCa3D 在真实数据集和两个新的模拟数据集上的表现优于之前最好的方法,并显示出摄像机在某些实际场景中可能会超越 LiDAR 的潜力。
Mar, 2023
本研究提出了一种分布式协作感知网络(DCP-Net),旨在通过整合其它平台的特征来提升成员的感知性能,减少冗余传输成本,并解决本地和协作特征之间的错位问题,从而在遥感应急任务中取得了明显的性能提升。
Sep, 2023
通过合作感知技术提高自动驾驶车辆在不利环境下的视觉感知质量,采用最佳辅助车辆优化协同感知并提高目标检测准确性,特别关注行人检测,验证结果表明该方法在挑战场景中提高了协作感知性能和驾驶安全。
Apr, 2024
自动泊车系统中加强环境感知一直是一个困难的任务,但是通过协同感知可以扩大车辆的视野,本文提出了一种基于 BEV 特征的协同感知网络架构,通过将道路边缘摄像机和激光雷达与车载传感器融合,有效地压缩 BEV 特征图的大小以适应 NR-V2X 网络的数据速率。通过合成的 AVP 数据集,我们观察到协同感知可以有效地提高感知性能,特别是对于行人。此外,在两种典型的安全关键场景中展示了基础设施辅助式协同感知的优势,在这两种场景中,最大安全巡航速度提高了 3m/s。
Mar, 2024