基于盒式感知的点云单目标跟踪特征增强
该论文提出了一种名为 P2B 的网络,通过在嵌入了目标信息的 3D 搜索区域中定位潜在的目标中心,执行基于点的 3D 目标候选提议和验证。使用 Hough 投票回归潜在目标中心,利用 PointNet++ 作为骨干网,证明了该方法在 KITTI 跟踪数据集上的优越性。
May, 2020
本文提出了一种基于多帧点云输入的 3D 单物体跟踪方法,能够编码目标的时空信息、学习目标的运动信息,且采用稀疏注意力机制进行特征融合,在 uiti 和 NuScenes 数据集上均取得了具有竞争力的结果。
Jun, 2023
使用 PointFusion 实现基于图像和点云信息的 3D 对象检测方法,其中 CNN 和 PointNet 网络分别处理图像和点云数据,再由新型融合网络将二者输出结合起来预测多个 3D 框及其置信度,相比现有方法在 KITTI 和 SUN-RGBD 数据集上实现更好的检测结果且无需特定模型调整。
Nov, 2017
本文提出了使用基于点的方法代替基于盒子的方法进行三维物体的探测、跟踪及定位,并介绍了该方法中的 CenterPoint 框架,该框架检测对象的中心,然后针对其进行其他属性的回归,简化了物体跟踪,最终在 nuScenes 基准测试中达到了 65.5 NDS 和 63.8 AMOTA 的最高性能,同时超过了之前单一模型方法的所有记录,并在所有 Lidar-only 提交中排名第一。
Jun, 2020
本研究通过引入两种新的边界框回归网络(inception 和 deformable)来在目标检测中提高定位准确性,并在多个基准测试中取得了优于现有方法的表现。
May, 2024
本文提出了 FoveaBox 框架,一种准确,灵活且完全无锚点的物体检测方法,通过预测类别敏感的语义图和每个位置的类别不可知的边界框,避免与锚相关的计算和超参数问题。与所有先进的物体检测器不同,FoveaBox 可以直接学习物体的存在可能性和边界框坐标,因此具有更好的性能和通用性。
Apr, 2019
本文提出了一种基于 transformer 架构的特征融合网络,以解决 3D 目标跟踪中的关键问题。该网络利用自注意机制捕捉点云中不同区域之间的相互关系,并使用交叉注意力将目标提示信息融入特征中,从而提高相似度计算的效率。在 KITTI 数据集上的实验结果表明,该方法取得了最新的最佳表现。
Oct, 2021
我们提出了一种基于 pillar 的 3D 单物体跟踪框架 PillarTrack,通过将稀疏的点云转化为稠密的 pillar 来保留本地和全局几何特征,并引入了一种金字塔型编码 pillar 特征编码器(PE-PFE)设计以提高每个 pillar 的特征表示,并从模态差异的角度介绍了一种高效的基于 Transformer 的骨干网络。通过在 KITTI 和 nuScenes 数据集上进行广泛实验,我们的方法表现卓越,并实现了实时跟踪速度。我们希望我们的工作能够鼓励社区重新思考现有的 3D 单物体跟踪器设计。
Apr, 2024
本文介绍一种基于 YOLO v2 算法与 3D 点云技术相结合的方法,能够在自动驾驶中快速、准确地识别 3D 物体边界框,实现了 40 帧每秒的实时性能。
Aug, 2018
3D-BoNet 是一个新颖的、简单易懂且通用的网络,可在 3D 点云上实现实例分割。该网络由骨干网和两个并行支路(边界框回归和点掩码预测)组成,并在保持端到端训练的同时,直接回归点云中所有实例的 3D 边界框和每个实例的点级掩码。实验表明,相比现有方法,该方法不仅在 ScanNet 和 S3DIS 数据集上的表现更优,而且计算效率提高了约 10 倍,并且该算法的设计是有效的。
Jun, 2019