本研究提出了一种基于 Transformer 的具有区分性的掩码预训练框架 MaskPoint,该框架使用离散的占用值表示点云,通过简单的二元分类来代理掩盖的对象点和采样的噪声点,从而使其具有鲁棒性。该预训练模型在多个下游任务中表现优异,包括 3D 形状分类、分割和真实世界物体检测。
Mar, 2022
我们提出了一种新颖的图像辅助预训练框架 PRED,用于户外点云,以解决点云不完整性和遮挡对齐的问题,并通过神经渲染技术利用图像的语义信息进行监督。大规模数据集上的实验证明了 PRED 方法在 3D 感知任务中的显著优势。
Nov, 2023
该研究提出了一种可用于 3D 数据的简单自监督预训练方法,在目标检测、语义分割和物体分类等方面取得了最先进的结果并提高了少样本类别的性能。
Jan, 2021
该研究提出一种新的方法,使用基于 3D 点云的局部扫描来完成物体和场景的自动化补全,并通过使用特定的编码器 - 解码器结构以及三个特殊开发的新型层来实现。该方法在对象和室内场景自动补全任务中表现出优异的性能,并提高了技术水平。
本文提出一种新颖的掩码自编码点云自监督学习方案,通过划分输入点云为不规则点区块和高比例随机掩码,设计了一种基于 Transformer 的自编码器,该方案在预训练过程中高效并且在各种下游任务中具有很好的泛化能力,包括在少样本物体分类方面表现出色。
本文提出了一种新的深度学习方法,通过去除噪声并保持尖锐特征,自动而又稳健地过滤点云,其点对点的学习架构由编码器和解码器组成,并在视觉质量和数量误差指标方面均优于现有深度学习技术。
Feb, 2020
本论文提出一种基于自监督学习的点云深度感知模型预训练方法,通过表面重建预训练任务和基于潜在向量的感知头来抓取表面信息的语义片段并提高对象检测和场景语义分割性能。
Dec, 2022
通过多视图渲染三维数据,运用局部和全局两个层次的自监督方式进行神经网络的预训练来取得了优于 PointNet,DGCNN 和 SR-UNet 等现有方法的效果,并分析了合成和真实数据的优缺点。
Oct, 2022
本文研究了 transformers 在点云领域中通过自监督学习所获得的特性,探讨了其预训练方案的有效性,分析了数据数量对网络特征的影响,提出了一种解冻策略,并在分类任务中取得了最优结果。
Jun, 2023
本研究旨在促进 3D 深度学习表示学习的研究,重点关注高级场景理解任务,使用统一的三元组架构、源数据集和对比损失进行无监督预训练,对室内和室外、真实和合成数据集的 6 个不同基准进行分割和检测,取得了鼓舞性的结果,表明学习到的表示可以在不同领域推广使用,并且与监督的预训练的改善程度相似,建议未来的努力应该更加注重扩充数据收集而非详细标注。
Jul, 2020