3D 点云迭代变换网络
本论文提出了一种基于局部图表示的点云学习框架,通过学习内部的三维几何特征并使用基于图卷积网络的特征提取网络来实现三维变换不变性,这种方法在分类和分割任务中取得了最先进的性能和有竞争力的性能,具有重要的研究意义。
Dec, 2018
该研究提出了一种新的三维点云表示网络,称为动态聚类变换网络(DCTNet),它利用编码器 - 解码器架构来学习全局和局部特征,并提出了新的语义特征动态采样和聚类方法以及一个高效的语义特征引导上采样方法,验证了其在点云分割任务上的性能优于现有的最先进模型。
May, 2023
提出了一种基于图结构和神经网络的方法,能够同时实现旋转、平移、缩放的不变性以及点云稀疏程度的稳健性,此方法在模型识别与检索任务方面,其性能可显著提高。
Feb, 2020
本文提出了一种新颖的点云表示学习架构,称为 Dual Transformer Network (DTNet),该架构主要包括一个 Dual Point Cloud Transformer (DPCT) 模块,该模块通过同时聚合点和通道的多头注意力机制,从位置和通道的语义角度捕获更丰富的上下文依赖性,有效地实现了三维点云分类和分割任务中的终端到终端分析。
Apr, 2021
本文介绍了一种基于 Fast Point Transformer 的新型轻量级自我关注层的方法,用于对大型 3D 场景进行处理和提高计算效率,并应用于 3D 语义分割和 3D 检测,具有与基于体素的最佳方法相竞争的准确性和比 Point Transformer 更快的推理时间。
Dec, 2021
本文提出了一种新的低层纯旋转不变表示,以替代常见的 3D 笛卡尔坐标作为神经网络的输入,并介绍了一种网络结构来将这些表示嵌入为特征,编码点与邻居之间以及全局形状结构之间的局部关系,并通过区域关系卷积来编码局部和非局部信息以缓解因旋转不变表示引起的全局信息丢失。在多个点云分析任务上评估我们的方法,包括形状分类、部件分割和形状检索,实验结果表明与现有技术相比,我们的方法在任意方向上的输入上实现了一致且最佳的性能。
Mar, 2020
本文提出了 RoITr,一个应用于点云匹配任务的旋转不变转换器,分别从局部和全局两个层面贡献,其中局部级别引入了嵌入 PPF 坐标的注意力机制,全局阶段则提出了一个旋转不变的跨帧自注意力机制,获得了远超现有方法的性能。
Mar, 2023
该研究提出了一个名为 Graph Transformer 的新特征提取模块,它能够在局部和全局模式下学习点云特征。该模块将基于图形和变压器的方法的优点相结合,并包括局部变换器和全局变换器模块。在此基础上,构建了一个 3D 点云网络 GTNet,可以用于形状分类、部分分割和语义分割任务。
May, 2023
介绍了局部等变于 3D 旋转,平移和点的排列的张量场神经网络;使用球谐函数构建滤波器,接受标量、向量和高阶张量作为输入,并在几何意义下保证输出。用于处理几何、物理和化学任务。
Feb, 2018
本文提出一种基于 3D 点云、命名为 NDT-Transformer 的实时大规模地点识别的新方法。使用 3D 正态分布变换 (NDT) 表示法来提供几何形状描述,并通过 NDT Transformer 网络学习一组 3D NDT 单元格表示,从而实现全局描述符提取。该方法不仅丰富了几何和上下文信息,相比现有方法在牛津机器人车基准测试上平均取得了 7.52%和 2.73%的改进。
Mar, 2021