适用于 3D 点云分割的分层 Transformer
本研究提出了 CDFormer,一种新的利用收集和分布机制的 Transformer 架构,可对点云的局部和全局结构进行有效学习,并在四个流行的点云数据集上取得了新的最佳分类和分割结果。
Jun, 2023
本文介绍了一种基于 Fast Point Transformer 的新型轻量级自我关注层的方法,用于对大型 3D 场景进行处理和提高计算效率,并应用于 3D 语义分割和 3D 检测,具有与基于体素的最佳方法相竞争的准确性和比 Point Transformer 更快的推理时间。
Dec, 2021
本论文介绍了一种基于 transformer 模型的多头自注意力结构和位置融合块的点云上采样方法,并通过定量和定性的对比实验证明了其优越性能。
Nov, 2021
该论文提出了一种新型的变换器模型,用于处理连续空间中数量庞大的空间点样本,包括多分辨率表示学习、粗略近似的空间注意力和不确定性量化分支,实验证明该模型在预测准确性方面优于多个基准模型。
Nov, 2023
该研究提出了一种新的三维点云表示网络,称为动态聚类变换网络(DCTNet),它利用编码器 - 解码器架构来学习全局和局部特征,并提出了新的语义特征动态采样和聚类方法以及一个高效的语义特征引导上采样方法,验证了其在点云分割任务上的性能优于现有的最先进模型。
May, 2023
本文提出了一种名为 SphereFormer 的方法,通过设计射线窗口自我关注机制,将密集的近距离点聚集到稀疏的远距离点,从而扩大感受野,提高了稀疏远距离点的性能,并在 nuScenes 和 SemanticKITTI 语义分割基准测试排名第一,取得了显著的性能提升。
Mar, 2023
使用集合转换器在分层框架中对点云进行形状分类和分割,实现了状态 - of-the-art 的性能,并可用于处理大规模稀疏数据。
Jul, 2022
本文提出了基于自我定位的点云 Transformer(SPoTr),通过局部自我关注和基于点的全局交叉关注,使用自我定位点考虑空间和语义信息,从而捕捉局部和全局形状上下文,提高表现力,并通过小型自我定位点集计算注意力权重,从而提高了全局注意力的可扩展性。实验表明 SPoTr 在精确度和可解释性等方面的表现都很好。
Mar, 2023
本文研究在自动驾驶中基于 LiDAR 的三维物体检测问题,发现传统的下采样操作可能对信息造成不可避免的损失,提出了一种称作 Single-stride Sparse Transformer (SST) 的新方法,该方法利用 transformers 避免了单步架构中接受域不足的问题,有效处理了点云的稀疏性并显著提升了检测性能,验证集上 Level-1 AP 值达到了 83.8,小物体(行人)检测表现尤为突出。
Dec, 2021