PTTR: 基于Transformer的三维点云目标追踪
该论文提出了一种名为P2B的网络,通过在嵌入了目标信息的3D搜索区域中定位潜在的目标中心,执行基于点的3D目标候选提议和验证。使用Hough投票回归潜在目标中心,利用PointNet++作为骨干网,证明了该方法在KITTI跟踪数据集上的优越性。
May, 2020
本篇研究文章提出基于点云的3D单目标跟踪的Transformer模块Point-Track-Transformer(PTT),其包含特征嵌入,位置编码和自注意力模块等三个模块,将该模块应用到现有的P2B方法上构建出PTT-Net,并在KITTI数据集上实验表明,该模型较现有方法提升了约10%左右的性能,并实现了实时性能(~40FPS)。
Aug, 2021
本文提出了一种基于transformer架构的特征融合网络,以解决3D目标跟踪中的关键问题。该网络利用自注意机制捕捉点云中不同区域之间的相互关系,并使用交叉注意力将目标提示信息融入特征中,从而提高相似度计算的效率。在KITTI数据集上的实验结果表明,该方法取得了最新的最佳表现。
Oct, 2021
该论文提出了一种新的端到端方法来直接预测配准操作中的对应点,利用transformer网络结构中的自注意力和交叉注意力机制来替代传统的特征匹配和RANSAC算法,该方法在3DMatch和ModelNet基准上均取得了最先进的成绩。
Mar, 2022
本文首次提供了深入的视角,从多个方面分类当前基于Transformer框架的方法,针对自注意机制的变体和改进进行了探究,并在分类、分割、目标检测等方面进行了综合对比,最后提出了三个潜在的研究方向,为3D Transformers的发展提供了有益参考。
May, 2022
本文使用Siamese Transformer网络,结合点云的形态信息和深度信息,在3D单目标跟踪任务中实现了鲁棒的交叉相关学习,取得了与KITTI、nuScenes和Waymo数据集上最优的表现。
Jul, 2022
本文提出了RoITr,一个应用于点云匹配任务的旋转不变转换器,分别从局部和全局两个层面贡献,其中局部级别引入了嵌入PPF坐标的注意力机制,全局阶段则提出了一个旋转不变的跨帧自注意力机制,获得了远超现有方法的性能。
Mar, 2023
本研究提出了CDFormer,一种新的利用收集和分布机制的Transformer架构,可对点云的局部和全局结构进行有效学习,并在四个流行的点云数据集上取得了新的最佳分类和分割结果。
Jun, 2023
该论文通过利用规模优势,在点云处理中解决了准确性和效率之间的权衡问题,提出了一种简单高效的Point Transformer V3模型,并在多个室内外场景的20个下游任务中取得了最先进的结果。
Dec, 2023
我们提出了一种基于pillar的3D单物体跟踪框架PillarTrack,通过将稀疏的点云转化为稠密的pillar来保留本地和全局几何特征,并引入了一种金字塔型编码pillar特征编码器(PE-PFE)设计以提高每个pillar的特征表示,并从模态差异的角度介绍了一种高效的基于Transformer的骨干网络。通过在KITTI和nuScenes数据集上进行广泛实验,我们的方法表现卓越,并实现了实时跟踪速度。我们希望我们的工作能够鼓励社区重新思考现有的3D单物体跟踪器设计。
Apr, 2024