可解释的自监督变压器深入探究点云
本文提出一种新颖的掩码自编码点云自监督学习方案,通过划分输入点云为不规则点区块和高比例随机掩码,设计了一种基于 Transformer 的自编码器,该方案在预训练过程中高效并且在各种下游任务中具有很好的泛化能力,包括在少样本物体分类方面表现出色。
Mar, 2022
本研究提出了一种基于 Transformer 的具有区分性的掩码预训练框架 MaskPoint,该框架使用离散的占用值表示点云,通过简单的二元分类来代理掩盖的对象点和采样的噪声点,从而使其具有鲁棒性。该预训练模型在多个下游任务中表现优异,包括 3D 形状分类、分割和真实世界物体检测。
Mar, 2022
本文介绍了一种基于几何特征重建的点云表示学习框架,其中包括三个点云专有的自监督学习目标,即质心预测、表面法线估计和曲率预测。该框架采用自监督学习方法,创造有意义的任务,相互促进模型更好地推理点云的精细几何结构。通过训练后,该模型在物体检测、分割和多目标跟踪等任务上均实现了显著的表现提升。
May, 2023
Point-BERT 是一种新的 Transformers 范例,通过预训练点云 Transformers 解决 few-shot 分类问题,在 ModelNet40 和 ScanObjectNN 数据集上取得了超过已有模型的优异表现。
Nov, 2021
通过自编码器预训练并采用使用基于注意力机制的解码器,本文在点云分析任务中表现优异,提高了点位置重建的不必要性,并还原了遮挡点的基础功能特征,包括表面法线和表面变化。
Apr, 2023
本论文提出了一种基于 Masked 和 Affine 变换的自我监督点云学习模型,通过在输入中添加 Affine 变换和掩模来损坏点云并使用编码器 - 解码器模型重建完整点云,实验证明其在对象分类、小样本学习、鲁棒性测试、部件分割和 3D 对象检测等方面有效。
Nov, 2022
本研究通过使用自监督学习以及具有表面网格的视觉转换器架构,构建了模型以模拟皮层结构,进而实现对皮层表面的学习。通过在较大数据集上进行预训练,可以获得强大的表示能力,用于在数据少的情景下进行微调,而在皮层表型回归任务中,预训练可以带来 26% 的性能提升和 80% 的更快收敛速度。
Aug, 2023
通过使用 3D 到多视图掩码自编码器,充分利用 3D 点云的多模属性,提出了一种全新的方法,这不仅丰富了模型对几何结构的理解,还利用了点云的固有多模性能,有效地改进了各种任务,包括 3D 对象分类、少样本学习、部分分割和 3D 对象检测。
Nov, 2023
本文提出了一种新颖的、简单的、基于位置预测的 Transformer 自监督预训练策略,可以提高 NLP、语音和视觉领域的性能,并使不使用位置嵌入的 Transformers 超越使用完整位置信息的 Transformers。
Jul, 2022
为了学习紧凑的 3D 表示,我们提出了一个简单而有效的 Point Feature Enhancement Masked Autoencoders (Point-FEMAE),它主要由一个全局分支和一个局部分支组成,通过全局随机和局部块掩码策略获得的全局和局部未经掩码的补丁提取点特征,然后使用特定的解码器进行重构,同时,为了进一步增强局部分支中的特征,我们提出了一个局部增强模块,使用局部补丁卷积方法感知更大尺度上的细粒度局部上下文。
Dec, 2023