PointGPT:基于点云的自回归生成预训练
通过 GLM 的启发,我们提出了一种通用的点云变换器模型(GPM),它在点云表征任务、无条件和有条件的生成任务中都具有通用性,并通过各种形式的掩码填充任务以改善自动编码中的掩码预测,从而在点云理解方面提高了性能。与 Point-BERT、MaskPoint 和 PointMAE 等模型相比,我们的 GPM 在点云理解任务中取得了优越的性能。
Oct, 2023
此篇论文介绍了一种新的自回归模型 PointGrow,它可以通过自回归的方法并结合自注意力机制,从语义上下文条件或无条件生成多样而逼真的 3D 点云数据,可应用于非监督特征学习和形状算术操作等多个重要应用领域。
Oct, 2018
Point-BERT 是一种新的 Transformers 范例,通过预训练点云 Transformers 解决 few-shot 分类问题,在 ModelNet40 和 ScanObjectNN 数据集上取得了超过已有模型的优异表现。
Nov, 2021
该论文提出了一种新方法 PoinTr,将点云补全问题重新构造为集合对集合翻译问题,并采用 Transformer 编码器 - 解码器架构。通过使用定位嵌入在无序点组中表示点云,我们将点云转换为点代理序列,并使用变形器进行点云生成。在点云的局部几何关系中,我们进一步设计了一种几何感知块以更好地利用点云的 3D 几何结构归纳偏差,使得变形器能够更好地学习结构知识和保留详细信息,从而完善点云。此外,我们提出了两个具有更多不完整点云的具有挑战性的基准测试,以更好地反映现实世界的情况。实证结果表明,我们的方法在新的基准测试和现有基准测试上均优于现有最先进的方法。
Aug, 2021
本文提出一种新颖的掩码自编码点云自监督学习方案,通过划分输入点云为不规则点区块和高比例随机掩码,设计了一种基于 Transformer 的自编码器,该方案在预训练过程中高效并且在各种下游任务中具有很好的泛化能力,包括在少样本物体分类方面表现出色。
Mar, 2022
本研究提出了一种基于 Transformer 的具有区分性的掩码预训练框架 MaskPoint,该框架使用离散的占用值表示点云,通过简单的二元分类来代理掩盖的对象点和采样的噪声点,从而使其具有鲁棒性。该预训练模型在多个下游任务中表现优异,包括 3D 形状分类、分割和真实世界物体检测。
Mar, 2022
本文提出了一种新的方法,将点云补全问题转化为集合转换问题,并设计了一种名为 PoinTr 的新模型,采用 Transformer 编码器 - 解码器架构进行点云补全。通过将点云表示为带有位置嵌入的无序点组的集合,我们将输入数据转换为点代理的序列,并使用 Transformer 进行生成。为了更好地利用点云的 3D 几何结构的归纳偏差,我们进一步设计了一个几何感知块,以显式模拟本地几何关系。我们还进一步提出了 AdaPoinTr,并在点云完成期间开发了自适应查询生成机制和新颖的去噪任务,实现了模型的高效和有效训练。我们还展示了我们的方法可以扩展到场景级点云完成方案,并设计了一种新的几何增强语义场景完成框架。我们的方法在现有和新提出的数据集上进行了大量实验证明其有效性,获得了 6.53CD 的 PCN,0.81CD 的 ShapeNet-55 和 0.392MMD 的真实 KITTI,在各种基准测试中均超过了其他工作,并建立了新的技术水平。值得注意的是,AdaPoinTr 可以以更高的吞吐量和更少的 FLOP 实现如此令人满意的性能,而不像以前的最佳方法。
Jan, 2023
点云配准中的局部和全局特征提取是一个常见问题。本文提出了一种名为 “Point Tree Transformer (PTT)” 的新型基于 Transformer 的方法,通过构建点云的层次特征树和引入一种新的点树注意力机制(PTA)来提取细粒度的局部和全局特征,从而有效地解决低相关性点引起的性能下降和计算复杂度过高的问题。实验证明,该方法在 3DMatch、ModelNet40 和 KITTI 数据集上取得了优越的性能。
Jun, 2024