MPPNet:使用代理点进行多帧特征交错的 3D 时间物体检测
提出了一种基于时间 LiDAR 的三维物体检测方法,利用点云和轨迹特征相结合的点轨迹变压器和长短期记忆,实现了对三维物体的高效检测。对大规模 Waymo 数据集进行了广泛实验,证明了该方法在性能上优于现有的方法。
Dec, 2023
PointTrackNet 使用机器学习技术构建一个端到端的 3D 目标检测和跟踪网络,在处理极端运动状态下的 KITTI 跟踪数据集时表现卓越。
Feb, 2020
该论文研究了自动驾驶场景下高精度的 3D 物体检测问题。其提出了 Multi-View 3D networks(MV3D)框架,该框架采用多传感器融合技术,将 LIDAR 点云和 RGB 图像作为输入,并预测有方向的 3D 界限框。实验表明,该方法在 3D 定位和 3D 检测任务方面的表现优于现有技术约 25%和 30%,在 2D 检测中也表现出显著的技术优势。
Nov, 2016
本文提出了一个端到端的在线三维视频物体检测器,该模型由空间特征编码组件和时空特征聚合组件组成。在空间特征编码组件中,提出了一种新的 Pillar Message Passing Network(PMPNet)模型,用于对离散点云帧进行编码。在时空特征聚合组件中,提出了一种注意力时空变换门控循环神经网络(AST-GRU),它通过注意力机制强调了前景物体并对动态物体进行了对齐。实验结果表明,该模型在大规模 nuScenes 基准测试中实现了最先进的性能。
Apr, 2020
这篇论文提出了一种基于多视角融合的 3D 点云语义分割方法,通过对球面和鸟瞰图进行高效的二维卷积神经网络分割,结合两个视角的分割结果,有效缓解了单个视角方法中存在的信息损失问题,既能提高准确率又能保证速度,在 SemanticKITTI 数据集上实现了高准确率(mIoU 为 55.5),同时比目前最先进的基于投影的方法 RangeNet++ 和 PolarNet 分别快 1.6 倍和 3.1 倍。
Nov, 2020
本研究使用图神经网络(Graph Neural Networks)捕捉对象之间的互动方式,以更好地学习多目标跟踪(Multi-object tracking)的关联和轨迹预测(trajectory prediction)的社交上下文,并使用多样性采样技术避免生成重复样本,提高了 3D MOT 和轨迹预测的性能。
Mar, 2020
本文采用多帧点云视频中的时间信息来探测 3D 物体。研究者们提出了一种名为 GMPNet 的格网信息传递网络来编码短期时间信息,并提出了一个名为 AST-GRU 的基于注意力的时空变换 GRU 来进一步聚合长期帧。在 NuScenes 基准测试中,该方法表现优异,且不需要任何额外的手段。
Jul, 2022
本文提出了一种基于运动引导的序列融合(MSF)方法,通过利用物体的运动连续性来挖掘有用的序列上下文,结合双向特征聚合(BiFA)模块和基于体素采样的点云池化技术,使得数百万个点能够在几毫秒内被处理,实现了比其他多帧检测器更好的效率和领先的准确性,并在 Waymo Open Dataset 的 LEVEL1 和 LEVEL2 测试集上分别取得了 83.12% 和 78.30% 的 mAP。
Mar, 2023
本文提出了一种名为 MoNet 的基于运动的神经网络,它将运动特征和内容特征结合起来用于预测未来的点云,以提高自动驾驶中智能汽车对其周围环境的感知和安全性。实验结果表明,该方法具有重要的应用前景。
Nov, 2020
本研究提出了一种基于 LIDAR 传感器的一阶段 3D 目标检测器,该检测器在从点数据中提取特征上表现出更好的性能,并在 KITTI-3D 基准测试中表现优异,其速度和准确性在实际场景中具有实际应用价值。
Jun, 2019