Argoverse: 富含地图的 3D 跟踪和预测
Argoverse 2 是一套适用于自动驾驶领域的三个数据集,包含多模态数据,如高分辨率图像,种类繁多的 3D 标注,未标注的 lidar 点云等,为 3D 感知模型的训练和评估提供了充足的数据和场景,并提供了自我监督和云点预测等新的数据学习任务。
Jan, 2023
我们的 Le3DE2E 解决方案用于统一的基于传感器的检测、跟踪和预测,在 CVPR 2023 无人驾驶研讨会(WAD)上的 Argoverse 挑战中展示。我们提出了一个统一的网络,包括检测、跟踪和预测三个任务。该解决方案采用了 Bird's Eye View(BEV)编码器,并进行了时空融合,生成用于多任务的统一表示。该解决方案在 Argoverse 2 传感器数据集上进行了测试,评估了 26 个物体类别的检测、跟踪和预测。我们在 Argoverse Challenges 的 E2E Forecasting 赛道上获得了检测、跟踪和预测的第一名。
Nov, 2023
我们的 Le3DE2E_Occ 解决方案在 CVPR 2023 自动驾驶(WAD)研讨会的 Argoverse 挑战中呈现了 4D 占用预测。我们的解决方案包括一个强大的基于 LiDAR 的鸟瞰图编码器,具有时间融合和两阶段解码器,结合了 DETR 头部和 UNet 解码器。该解决方案在 Argoverse 2 传感器数据集上进行了测试,以评估未来 3 秒的占用状态。我们的解决方案的 L1 误差(3.57)比基线低 18%,并在 CVPR 2023 的 4D 占用预测任务中获得第一名。
Nov, 2023
该研究介绍了一种新的大规模、高质量、多样化的自动驾驶数据集,其中包含了各种城市和郊区地理环境中的 1150 个场景,数据标注为 2D 和 3D 框,而 2D 和 3D 检测和跟踪任务的基线也得到了提供。
Dec, 2019
该研究介绍了当前最全面的交互式动作数据集,包含超过 100,000 个场景,用于发展动作规划模型与提供强大的基线模型来对单独或多个交互式对象进行预测,并提供了新的度量方法。
Apr, 2021
本文将使用基于 Efficient Attention 的模型,从 Argoverse 1.0 基准测试中的最小地图信息中提取过去的轨迹和地图特征,以实现关于自动驾驶的运动预测。
May, 2022
通过与自动驾驶公司 May Mobility 的合作,我们提出了 MARS 数据集,它统合了多智能体、多次遍历和多模态自动驾驶研究场景,能够促进自动驾驶车辆的感知、预测和规划能力的转变。
Jun, 2024
本文介绍了 ApolloScape 数据集及其应用于自动驾驶的算法,数据集包含丰富的标签和各个任务的工具和算法,使用多传感器融合以及多任务联合学习的方法,能够实现鲁棒自主定位和语义分割。
Mar, 2018
该研究介绍了一个多模态数据集,其中包括雷达、相机和激光雷达,以提高自主驾驶汽车的稳健性和长程感知并训练 3D 物体检测模型,并在 GitHub 上提供数据。
Nov, 2022
本文提出了一种基于车载摄像头图像的道路布局推断模型,同时构建了一个路况数据集,可以将导航地图的元数据与 Google 街景图像匹配以提供标签,并利用深度卷积网络训练该模型,结果表明该方法可用于提升基础设施安全性。
Nov, 2016