用于动态点云自监督学习的对比预测自编码器
我们提出了一个统一的点云视频自监督学习框架,用于面向对象和面向场景的数据。通过在点级别进行对比学习,我们的方法能够捕捉到细粒度语义。同时,我们引入了一个新的预训练任务,通过实现超点的语义对齐来进一步提高表示能力。此外,为了解决动态点云时间维度的高冗余性问题,我们提出了一种选择策略来保留适当的负样本,并利用其他实例中的高相似样本作为正样本的补充。大量实验证明我们的方法在各种下游任务上优于有监督对应方法,并展示了学到的表示的卓越可迁移性。
Aug, 2023
本文提出了 PointCMP 的对比度掩膜预测框架,用于自我监督学习点云视频,实现了同时学习局部和全局位相信息,并通过互相相似的数据增强模块生成艰难的样本。实验表明,PointCMP 实现了基准数据集上的最先进性能,并优于现有的全面监督对应。传递学习结果证明了学习表示在不同数据集和任务之间具有优越性。
May, 2023
本研究提出了一种名为 CrossPoint 的简单跨模态对比学习方法,通过自监督学习,在不需要人类标注的情况下,实现可转移的三维点云表示,通过最大化点云和相应渲染的二维图像之间的协议,实现了三维物体分类和分割等多项任务,并验证了我们的方法在提高点云理解方面的效果。
Mar, 2022
本研究提出了自对比学习方法用于自我监督点云表示学习,以捕捉点云的局部几何模式和非局部语义基元。实验结果表明,该方法在自我监督点云分割和分类转移学习等领域的基准数据集上取得了最先进的性能。
Jul, 2021
本文提出一种新颖的掩码自编码点云自监督学习方案,通过划分输入点云为不规则点区块和高比例随机掩码,设计了一种基于 Transformer 的自编码器,该方案在预训练过程中高效并且在各种下游任务中具有很好的泛化能力,包括在少样本物体分类方面表现出色。
Mar, 2022
本文介绍了一种半监督点云语义分割方法,使用伪标签指导其损失函数,并提出了一种基于对比损失的方法来增强特征表示和模型的泛化能力。实验证明,该方法在三个数据集上都可以有效地提高预测质量。
Oct, 2021
提出了一种自我监督学习方法,利用点云数据来预训练深度神经网络用于对象分类和语义分割,从而在减少监督样本数量方面提高样本效率。该方法不需要特定的网络体系结构,并且在下游的对象分类任务中优于当前无监督学习方法。
Jan, 2019
本论文提出了一种基于对比学习方法的学习强大点云表示的新策略,该方法可以嵌入任何点云分类网络中,通过改进类内紧凑性和类间可分性来实现嵌入特征分布的细化,并提出了混淆易感类别挖掘策略来缓解由小的类间差异和类间紧凑度引起的混淆问题,并设计了一个基于信息熵理论的熵感知注意模块来识别嵌入空间中的样本异常值和不稳定样本,实验证明该方法比现有技术表现更好,并在现有技术中实现了显著的性能提升。
Jan, 2022
本研究提出了一种普适的无监督学习方法 Contrastive Predictive Coding,通过使用强大的自回归模型在潜在空间中预测未来来提取高维数据的有用表示,以此学习有用的表示并在语音,图像,文本和三维环境中的强化学习中实现了强大的表现。
Jul, 2018
该论文提出了两种新型的自监督预训练方法,利用覆盖树对点云进行分层划分,从而避免手动注释点云所导致的困难;并针对少样本学习设置,让学习网络对支持集的点云嵌入进行预训练。实验表明,利用该自监督学习方法预训练的有监督方法显著提高了目前最先进方法的准确性,并且该方法在下游的分类任务中也优于先前的无监督方法。
Sep, 2020