Apr, 2022

从点到块:实现自注意力在 3D 形状识别中的应用

TL;DR本研究提出 Point Transformer-in-Transformer 方法,结合局部和全局注意机制来进行 3D 图形识别,旨在解决 Transformer 架构的计算效率问题和注意机制无法有效连接单个点的全局问题。实验表明,该方法比基线 Transformer 提供更有用的下游任务特征,同时也更具有计算效率。此外,该方法还可用于场景重建中的功能匹配。