Oct, 2021

PatchFormer:一种具有补丁注意力的高效点变换器

TL;DR在点云学习领域中,由于 Transformer 模型生成的注意力矩阵具有输入规模的平方复杂度,因此本文提出了一种采用自适应方式学习较小基础上的基础并通过它们的带权求和来计算注意力矩阵的方法 (PAT),并借助于轻量级的多尺度注意力块(MST)来实现对不同尺度特征的关注,最终构建了一个名为 PatchFormer 的神经网络,为点云学习提供了可比较的准确性,并且比以前的点 Transformers 快 9.2 倍。