区域变换器:自注意力区域基点云分割
本文提出了一种基于自注意力和多尺度非欧几里得几何信息的插件模块 Multi-scale Geometry-aware Transformer(MGT),通过对点云数据的局部和全局几何信息的处理,成功提高了点云任务的性能表现。
Apr, 2023
使用集合转换器在分层框架中对点云进行形状分类和分割,实现了状态 - of-the-art 的性能,并可用于处理大规模稀疏数据。
Jul, 2022
本研究提出 Point Transformer-in-Transformer 方法,结合局部和全局注意机制来进行 3D 图形识别,旨在解决 Transformer 架构的计算效率问题和注意机制无法有效连接单个点的全局问题。实验表明,该方法比基线 Transformer 提供更有用的下游任务特征,同时也更具有计算效率。此外,该方法还可用于场景重建中的功能匹配。
Apr, 2022
此篇论文介绍了一种新的自回归模型 PointGrow,它可以通过自回归的方法并结合自注意力机制,从语义上下文条件或无条件生成多样而逼真的 3D 点云数据,可应用于非监督特征学习和形状算术操作等多个重要应用领域。
Oct, 2018
通过基于语义信息的几何启示本文提出了一种高效的本地自适应注意方法来增强几何意识的表示,使得其在 KITTI 数据集上建立了新的最前沿,证明了本方法在自监督单目深度估计任务上的有效性。
Dec, 2022
这篇研究提出了一种新的架构,pCTFusion,它结合了基于核的卷积和自注意机制,以便更好地进行特征学习,并捕捉分割中的局部和全局依赖关系。该架构在 SemanticKITTI 室外数据集上进行评估,与现有的先进架构相比,性能提高了 5-7%,特别是对于常因类别不平衡、空间不足和邻近特征编码而被错误分类的次要类别,效果更加显著。这些方法的发展可以用于复杂数据集的分割,并推动 LiDAR 点云的实际应用。
Jul, 2023
本文介绍了一种基于 Fast Point Transformer 的新型轻量级自我关注层的方法,用于对大型 3D 场景进行处理和提高计算效率,并应用于 3D 语义分割和 3D 检测,具有与基于体素的最佳方法相竞争的准确性和比 Point Transformer 更快的推理时间。
Dec, 2021
本文提出了基于自我定位的点云 Transformer(SPoTr),通过局部自我关注和基于点的全局交叉关注,使用自我定位点考虑空间和语义信息,从而捕捉局部和全局形状上下文,提高表现力,并通过小型自我定位点集计算注意力权重,从而提高了全局注意力的可扩展性。实验表明 SPoTr 在精确度和可解释性等方面的表现都很好。
Mar, 2023
本文提出了一种基于 Point Cross-Attention Transformer 的新型端到端网络结构,将多尺度特征通过两个不同的跨注意力变换器分支进行组合,并引入一种有效的形状分类模型,通过计算不同分支的单类标记与注意图来减少计算负担,实验表明该方法在形状分类,部分分割和语义分割任务中表现优异。
Apr, 2023
提出了名为 AGCN 的新型网络结构,结合了图卷积网络和注意力机制,可以有效地从无序和非结构化的点云数据中提取特征,经实验证明在分类和分割任务中均达到了当前最先进的性能。
May, 2019