PointCAT:点云的交叉注意力变换器
探索使用 Cross Attention 机制替代传统的 self-attention 机制在计算机视觉任务中实现 Transformer 的实用性,实验表明该机制在 ImageNet-1K、COCO 和 ADE20K 等任务上可以达到先进水平,并且降低了计算量。
Jun, 2021
使用集合转换器在分层框架中对点云进行形状分类和分割,实现了状态 - of-the-art 的性能,并可用于处理大规模稀疏数据。
Jul, 2022
本文提出了一种新颖的点云表示学习架构,称为 Dual Transformer Network (DTNet),该架构主要包括一个 Dual Point Cloud Transformer (DPCT) 模块,该模块通过同时聚合点和通道的多头注意力机制,从位置和通道的语义角度捕获更丰富的上下文依赖性,有效地实现了三维点云分类和分割任务中的终端到终端分析。
Apr, 2021
本篇文章提出了一种特定于医用点云的基于注意力机制的 3D 医用点云 Transformer (3DMedPT) 模型,通过增加上下文信息和在查询时总结局部响应,可以捕捉局部和全局特征交互,同时应用位置嵌入学习准确的局部几何形状和多图推理 (MGR) 来丰富特征表示,在医用数据上的实验表明该方法的分类和分割能力优于其他方法,并且具有良好的泛化能力。
Dec, 2021
本研究提出 Point Transformer-in-Transformer 方法,结合局部和全局注意机制来进行 3D 图形识别,旨在解决 Transformer 架构的计算效率问题和注意机制无法有效连接单个点的全局问题。实验表明,该方法比基线 Transformer 提供更有用的下游任务特征,同时也更具有计算效率。此外,该方法还可用于场景重建中的功能匹配。
Apr, 2022
本文介绍了一种基于 Fast Point Transformer 的新型轻量级自我关注层的方法,用于对大型 3D 场景进行处理和提高计算效率,并应用于 3D 语义分割和 3D 检测,具有与基于体素的最佳方法相竞争的准确性和比 Point Transformer 更快的推理时间。
Dec, 2021
在点云学习领域中,由于 Transformer 模型生成的注意力矩阵具有输入规模的平方复杂度,因此本文提出了一种采用自适应方式学习较小基础上的基础并通过它们的带权求和来计算注意力矩阵的方法 (PAT),并借助于轻量级的多尺度注意力块(MST)来实现对不同尺度特征的关注,最终构建了一个名为 PatchFormer 的神经网络,为点云学习提供了可比较的准确性,并且比以前的点 Transformers 快 9.2 倍。
Oct, 2021
点云配准中的局部和全局特征提取是一个常见问题。本文提出了一种名为 “Point Tree Transformer (PTT)” 的新型基于 Transformer 的方法,通过构建点云的层次特征树和引入一种新的点树注意力机制(PTA)来提取细粒度的局部和全局特征,从而有效地解决低相关性点引起的性能下降和计算复杂度过高的问题。实验证明,该方法在 3DMatch、ModelNet40 和 KITTI 数据集上取得了优越的性能。
Jun, 2024
本文提出了一种通用的跨注意力变换器模块来解决一次性物体检测中难以准确利用语义相似度和泛化的问题,并通过在 COCO、VOC 和 FSOD 等数据集上的大量实验表明其有效性和效率。
Apr, 2021
本研究提出了一种点关注网络,它可以在对 3D 点云进行语义分割时学习丰富的本地形状特征和上下文相关性,并代替传统卷积核或参数共享机制来更有效地处理稀疏的 3D 点云。实验表明,该算法能够与现有的最先进方法同等或更好地处理各种 3D 点云。
Sep, 2019