Pointformer 进行的 3D 物体检测
本文提出了一种基于中心点的变换网络 ——CenterFormer,它使用查询嵌入来聚合中心候选点的特征向量,并设计了一种通过交叉注意力来融合多帧特征的方法。在 Waymo Open 数据集上,CenterFormer 在单个模型上实现了先进水平,取得了 73.7% 的验证集和 75.6% 的测试集 mAPH, 显著优于以前所有已发表的基于 CNN 和 transformer 的方法。
Sep, 2022
本文介绍了一种基于 Fast Point Transformer 的新型轻量级自我关注层的方法,用于对大型 3D 场景进行处理和提高计算效率,并应用于 3D 语义分割和 3D 检测,具有与基于体素的最佳方法相竞争的准确性和比 Point Transformer 更快的推理时间。
Dec, 2021
本研究提出了 CDFormer,一种新的利用收集和分布机制的 Transformer 架构,可对点云的局部和全局结构进行有效学习,并在四个流行的点云数据集上取得了新的最佳分类和分割结果。
Jun, 2023
信息瓶颈限制了 3D 物体检测的准确性和可扩展性,因此我们提出了基于 Transformer 的 PVTransformer 架构,通过用注意模块替换 PointNet 池化操作来改善点到体的聚合函数,从而在广泛使用的 Waymo Open Dataset 上实现了卓越的表现。
May, 2024
本文提出 PSGformer,一种新颖的 3D 实例分割网络,通过多级语义聚合模块和平行特征融合 Transformer 模块,完整地利用全局和局部语义信息,有效提高了分割水平,实现在 ScanNetv2 数据集上取得了当前最佳结果。
Jul, 2023
利用 Transformers 中的注意力机制,以所有的点为输入,自动学习每个点对目标检测的贡献,并通过改进的注意力叠加方案将目标特征融合在不同的阶段,实现了最先进的 3D 目标检测性能。
Apr, 2021
本文提出了一种基于 transformer 架构的特征融合网络,以解决 3D 目标跟踪中的关键问题。该网络利用自注意机制捕捉点云中不同区域之间的相互关系,并使用交叉注意力将目标提示信息融入特征中,从而提高相似度计算的效率。在 KITTI 数据集上的实验结果表明,该方法取得了最新的最佳表现。
Oct, 2021
本文提出了一种用于 3D 物体检测的弱监督点云变换器框架,旨在降低对训练所需监督的数量,以减少对 3D 数据集进行注释的高成本,通过使用投票网络选择高质量的预设锚点,将信息提炼到学生网络和教师网络。
Sep, 2023
该论文提出了一种新方法 PoinTr,将点云补全问题重新构造为集合对集合翻译问题,并采用 Transformer 编码器 - 解码器架构。通过使用定位嵌入在无序点组中表示点云,我们将点云转换为点代理序列,并使用变形器进行点云生成。在点云的局部几何关系中,我们进一步设计了一种几何感知块以更好地利用点云的 3D 几何结构归纳偏差,使得变形器能够更好地学习结构知识和保留详细信息,从而完善点云。此外,我们提出了两个具有更多不完整点云的具有挑战性的基准测试,以更好地反映现实世界的情况。实证结果表明,我们的方法在新的基准测试和现有基准测试上均优于现有最先进的方法。
Aug, 2021
本文提出了一种针对 3D 目标检测的模型 Sparse Window Transformer(SWFormer),它能够充分利用点云数据的稀疏性,并通过 “桶” 技术对不同长度的稀疏窗口有效地进行处理。在 Multi-scale 特征融合和窗口偏移操作的基础上,作者还引入了新的体素扩散技术。最终,在 Waymo Open Dataset 上的实验结果表明,SWFormer 相比于所有先前的单阶段和两阶段模型,取得了最新的 73.36 L2 mAPH 表现,同时更加高效。
Oct, 2022