LCM:局部约束紧凑点云模型用于点云建模
通过在三维点云中应用稀疏的标注以降低标注成本,本文提出了一种弱监督点云语义分割的上下文建模方法,包括区域遮罩策略和上下文遮罩训练方法,并在 ScanNet V2 和 S3DIS 基准测试中展示了其优越性。
Jul, 2023
Point-BERT 是一种新的 Transformers 范例,通过预训练点云 Transformers 解决 few-shot 分类问题,在 ModelNet40 和 ScanObjectNN 数据集上取得了超过已有模型的优异表现。
Nov, 2021
本文提出一种新颖的掩码自编码点云自监督学习方案,通过划分输入点云为不规则点区块和高比例随机掩码,设计了一种基于 Transformer 的自编码器,该方案在预训练过程中高效并且在各种下游任务中具有很好的泛化能力,包括在少样本物体分类方面表现出色。
Mar, 2022
通过引入局部几何特征提取机制和双向状态空间模型(bi-SSM),Mamba3D 模型在点云学习中取得了超过 Transformer 的卓越性能、高效性和可扩展性,在多个任务中超越同类模型和并行研究,包括在 ScanObjectNN 任务中从头开始的 92.6% 综合准确性和在 ModelNet40 分类任务中基于单模态预训练达到 95.1% 的准确性,并且具有线性复杂度。
Apr, 2024
本文提出了 PointCMP 的对比度掩膜预测框架,用于自我监督学习点云视频,实现了同时学习局部和全局位相信息,并通过互相相似的数据增强模块生成艰难的样本。实验表明,PointCMP 实现了基准数据集上的最先进性能,并优于现有的全面监督对应。传递学习结果证明了学习表示在不同数据集和任务之间具有优越性。
May, 2023
PointLLM 是一个基于大型语言模型的初步努力,旨在填补 LLMs 在 3D 理解领域的不足,通过处理彩色对象点云并生成合适的回应展示其对点云和常识的掌握;采用两阶段的训练策略,先进行潜空间对齐再进行语言调优,从而构建了一个评估点云感知能力和通用性能力的基准,实验结果表明 PointLLM 在现有的 2D 基线上展现出更好的表现。
Aug, 2023
基于状态空间模型 (SSM) 成功在 NLP 任务中进行序列建模的启发,我们提出了具有全局建模和线性复杂度的 PointMamba 框架,通过重新排序策略提供更合理的几何扫描顺序来增强 SSM 的全局建模能力,实验证明我们的 PointMamba 在不同的点云分析数据集上胜过基于 transformer 的对应模型,同时节省了约 44.3% 的参数和 25% 的 FLOPs,展示了构建基础 3D 视觉模型的潜在选择,并为点云分析提供了新的视角。
Feb, 2024
本论文提出了一种基于 Masked 和 Affine 变换的自我监督点云学习模型,通过在输入中添加 Affine 变换和掩模来损坏点云并使用编码器 - 解码器模型重建完整点云,实验证明其在对象分类、小样本学习、鲁棒性测试、部件分割和 3D 对象检测等方面有效。
Nov, 2022
本研究提出了一种基于 Transformer 的具有区分性的掩码预训练框架 MaskPoint,该框架使用离散的占用值表示点云,通过简单的二元分类来代理掩盖的对象点和采样的噪声点,从而使其具有鲁棒性。该预训练模型在多个下游任务中表现优异,包括 3D 形状分类、分割和真实世界物体检测。
Mar, 2022
这篇文章介绍了一种用于实际三维点集分析的旋转不变的自监督预训练框架,通过在局部参考帧中屏蔽自动编码的三维点来学习旋转不变且高度可推广的潜在特征,以提高对具有不一致方向的三维点集的准确性。
Mar, 2024