NoiseTrans:基于 Transformer 的点云去噪
该论文提出了一种新方法 PoinTr,将点云补全问题重新构造为集合对集合翻译问题,并采用 Transformer 编码器 - 解码器架构。通过使用定位嵌入在无序点组中表示点云,我们将点云转换为点代理序列,并使用变形器进行点云生成。在点云的局部几何关系中,我们进一步设计了一种几何感知块以更好地利用点云的 3D 几何结构归纳偏差,使得变形器能够更好地学习结构知识和保留详细信息,从而完善点云。此外,我们提出了两个具有更多不完整点云的具有挑战性的基准测试,以更好地反映现实世界的情况。实证结果表明,我们的方法在新的基准测试和现有基准测试上均优于现有最先进的方法。
Aug, 2021
该研究提出了一种基于深度学习的点云重建网络,采用两个阶段进行密集化、去噪和点云完整性重建,其中使用了变换器进行离散体素向 3D 点的转换,同时提出了放大位置编码模块以优化变换器,实现在 3D 扫描建模领域的最新水平。
Nov, 2021
本论文介绍了一种基于 transformer 模型的多头自注意力结构和位置融合块的点云上采样方法,并通过定量和定性的对比实验证明了其优越性能。
Nov, 2021
本文提出了一种新的方法,将点云补全问题转化为集合转换问题,并设计了一种名为 PoinTr 的新模型,采用 Transformer 编码器 - 解码器架构进行点云补全。通过将点云表示为带有位置嵌入的无序点组的集合,我们将输入数据转换为点代理的序列,并使用 Transformer 进行生成。为了更好地利用点云的 3D 几何结构的归纳偏差,我们进一步设计了一个几何感知块,以显式模拟本地几何关系。我们还进一步提出了 AdaPoinTr,并在点云完成期间开发了自适应查询生成机制和新颖的去噪任务,实现了模型的高效和有效训练。我们还展示了我们的方法可以扩展到场景级点云完成方案,并设计了一种新的几何增强语义场景完成框架。我们的方法在现有和新提出的数据集上进行了大量实验证明其有效性,获得了 6.53CD 的 PCN,0.81CD 的 ShapeNet-55 和 0.392MMD 的真实 KITTI,在各种基准测试中均超过了其他工作,并建立了新的技术水平。值得注意的是,AdaPoinTr 可以以更高的吞吐量和更少的 FLOP 实现如此令人满意的性能,而不像以前的最佳方法。
Jan, 2023
使用 Transformer 从带有噪声和密度变化的点云中准确预测法线,在合成形状数据集 PCPNet 和真实世界室内场景数据集 SceneNN 上实现了最先进的性能,表现出更强的抗噪性和显著更快的推理速度,同时证明了现有工作中的复杂手工设计模块在表面法线估计任务中并非必需。
Jan, 2024
通过引入新的矩阵关注 Transformer(Tensorformer)来实现更好的局部几何建模和更高质量的表面重建,成果在两个常用的数据集上均已超越同行,并在 ShapeNet 上取得 4%的 IOU 改进。
Jun, 2023
本文首次提供了深入的视角,从多个方面分类当前基于 Transformer 框架的方法,针对自注意机制的变体和改进进行了探究,并在分类、分割、目标检测等方面进行了综合对比,最后提出了三个潜在的研究方向,为 3D Transformers 的发展提供了有益参考。
May, 2022
本文提出了一种新的深度学习方法,通过去除噪声并保持尖锐特征,自动而又稳健地过滤点云,其点对点的学习架构由编码器和解码器组成,并在视觉质量和数量误差指标方面均优于现有深度学习技术。
Feb, 2020
本文介绍了一种基于 Fast Point Transformer 的新型轻量级自我关注层的方法,用于对大型 3D 场景进行处理和提高计算效率,并应用于 3D 语义分割和 3D 检测,具有与基于体素的最佳方法相竞争的准确性和比 Point Transformer 更快的推理时间。
Dec, 2021
本文提出了一种基于自编码器的 3D 点云去噪方法,该方法通过学习嵌入式邻域特征的稀疏点的局部和非局部特征表示,对 3D 点云中的噪声进行去除,并通过重建的流形重新采样得到去噪后的点云,该方法在合成噪声和真实世界噪声下均表现出显著的性能优于现有的去噪方法。
Jul, 2020