基于语义容忍对比损失的自监督图像到点位蒸馏
本文介绍了一种半监督点云语义分割方法,使用伪标签指导其损失函数,并提出了一种基于对比损失的方法来增强特征表示和模型的泛化能力。实验证明,该方法在三个数据集上都可以有效地提高预测质量。
Oct, 2021
自我监督的 3D 表示学习旨在从大规模未标记的点云中学习有效的表示。我们提出了 GroupContrast,一种将分段分组和语义感知对比学习相结合的新方法,通过分段分组提高语义一致性并为后续的对比表示学习提供语义指导,从而减轻了 “语义冲突” 问题。
Mar, 2024
该研究提出了一种针对自动驾驶数据量身定制的自监督 3D 感知模型预训练方法,使用 superpixels 来池化 3D 点特征和 2D 像素特征,训练 3D 网络来匹配虚拟对应的 2D 像素特征并提取特征,从而实现无需任何点云或图像注释的 3D 语义分割和车辆物体检测,进行了大量的自动驾驶数据集实验以证明其有效性。
Mar, 2022
自监督图像网络在解决复杂的 2D 任务(如语义分割、目标发现)时非常高效且几乎没有下游监督要求,然而,当前基于激光雷达数据的自监督 3D 网络表现不佳,因此有几种方法提议将高质量的自监督 2D 特征转移到 3D 网络中,最近在自动驾驶数据上进行的尝试显示了有希望的结果,然而,这些转移后的特征与完全监督的特征之间仍然存在差距,本文重新审视了 2D 到 3D 转移,首先,针对语义分割,我们提出了一种简单的方法,相对于之前的 3D 转移方法实现了显著的提高,其次,我们证明了在高容量的 3D 网络中进行转移对于获得高质量的 3D 特征至关重要,这实际上使我们能够显著缩小无监督转移的 3D 特征与完全监督特征之间的差距,最后,我们表明我们所得到的高质量转移表示还可以用于开放词汇的分割和背景 / 前景发现。
Oct, 2023
我们提出了一个统一的点云视频自监督学习框架,用于面向对象和面向场景的数据。通过在点级别进行对比学习,我们的方法能够捕捉到细粒度语义。同时,我们引入了一个新的预训练任务,通过实现超点的语义对齐来进一步提高表示能力。此外,为了解决动态点云时间维度的高冗余性问题,我们提出了一种选择策略来保留适当的负样本,并利用其他实例中的高相似样本作为正样本的补充。大量实验证明我们的方法在各种下游任务上优于有监督对应方法,并展示了学到的表示的卓越可迁移性。
Aug, 2023
本研究提出了一种名为 CrossPoint 的简单跨模态对比学习方法,通过自监督学习,在不需要人类标注的情况下,实现可转移的三维点云表示,通过最大化点云和相应渲染的二维图像之间的协议,实现了三维物体分类和分割等多项任务,并验证了我们的方法在提高点云理解方面的效果。
Mar, 2022
本文介绍了一种基于对比学习的自我监督表征学习方法,并将其推广到全监督设置中。其中,相同类别的样本点在嵌入空间中被拉在一起,而来自不同类别的样本则被同时推开,以实现更好的分类性能。实现简单,最佳损失函数表现优于交叉熵。
Apr, 2020
通过利用 VFMs 的像素级语义增强三维表示学习,采用 von Mises-Fisher 分布对特征空间进行结构化,以解决对手法的挑战并在下游任务中始终优于现有的图像到 LiDAR 对比蒸馏方法。
May, 2024
本文介绍了一种基于像素的密集自监督学习方法,通过考虑局部特征之间的对应关系,实现了对密集预测任务的有效优化,包括物体检测,语义分割和实例分割。与基线方法 MoCo-v2 相比,该方法仅引入了微不足道的计算开销,但表现出了更好的性能。
Nov, 2020
本研究提出了自对比学习方法用于自我监督点云表示学习,以捕捉点云的局部几何模式和非局部语义基元。实验结果表明,该方法在自我监督点云分割和分类转移学习等领域的基准数据集上取得了最先进的性能。
Jul, 2021