点云上的自监督少样本学习
提出了一种自我监督学习方法,利用点云数据来预训练深度神经网络用于对象分类和语义分割,从而在减少监督样本数量方面提高样本效率。该方法不需要特定的网络体系结构,并且在下游的对象分类任务中优于当前无监督学习方法。
Jan, 2019
本研究综述了使用深度神经网络实现无监督点云表示学习的方法,解决在人工标注数据量有限的问题。研究挖掘了常用数据集和评估指标,提出了基于这些技术的自监督点云表示学习方法的广泛应用,并指出未来可能面临的挑战和潜在问题。
May, 2023
本文提出了一种基于 3D 自监督学习的点云学习方法,通过旋转点云实现无标签的自我监督,在形状分类和 3D 关键点预测等任务上表现出色,学习到的特征优于其他自监督方法。
Aug, 2020
本文介绍了近期基于 DNN 的点云 SSL 的综述,包括定义、动机、背景、基于几种常见 Task-agnostic 预训练的创新分类方法,以及对于基准数据集的实验结果总结,最终给出了针对当前点云 SSL 限制的改进和未来研究方向。
May, 2023
通过多视图渲染三维数据,运用局部和全局两个层次的自监督方式进行神经网络的预训练来取得了优于 PointNet,DGCNN 和 SR-UNet 等现有方法的效果,并分析了合成和真实数据的优缺点。
Oct, 2022
本文提出了一种基于自我监督学习的弱监督方法解决大规模点云语义分割的问题,采用点云着色作为预处理任务,通过生成类原型的方式生成伪标签,并提出了一种稀疏标签传播机制,该方法在室内外不同情景的大规模点云数据集上得到了更好的弱监督结果和与完全监督方法可比的结果。
Dec, 2022
该研究提出了一种无监督的多任务模型,用于联合学习点云上的点和形状特征,并定义了三个无监督任务来训练多尺度基于图形的编码器。结果表明,与之前的无监督模型相比,该模型在形状分类和分割基准上表现优异。在 ModelNet40 分类任务中,准确率达到 89.1%,在 ShapeNet 分割任务中,mIoU 为 68.2%,准确率为 88.6%。
Oct, 2019
我们提出了一个统一的点云视频自监督学习框架,用于面向对象和面向场景的数据。通过在点级别进行对比学习,我们的方法能够捕捉到细粒度语义。同时,我们引入了一个新的预训练任务,通过实现超点的语义对齐来进一步提高表示能力。此外,为了解决动态点云时间维度的高冗余性问题,我们提出了一种选择策略来保留适当的负样本,并利用其他实例中的高相似样本作为正样本的补充。大量实验证明我们的方法在各种下游任务上优于有监督对应方法,并展示了学到的表示的卓越可迁移性。
Aug, 2023