从 2D 学习:基于像素到点的对比知识传递进行 3D 预训练
本文提出了一种基于 2D network 预训练的点云 3D 预训练新方法,通过引入多视角一致性损失,可有效防止 3D 特征丢失并在 3D 检测和语义分割等任务中实现最先进的性能。
Jun, 2023
本研究旨在促进 3D 深度学习表示学习的研究,重点关注高级场景理解任务,使用统一的三元组架构、源数据集和对比损失进行无监督预训练,对室内和室外、真实和合成数据集的 6 个不同基准进行分割和检测,取得了鼓舞性的结果,表明学习到的表示可以在不同领域推广使用,并且与监督的预训练的改善程度相似,建议未来的努力应该更加注重扩充数据收集而非详细标注。
Jul, 2020
我们提出了一种新颖的适用于任何点云模型的 3D 到 2D 生成预训练方法,通过交叉注意机制生成来自不同指示姿势的视图图像作为预训练方案,以精确监督帮助 3D 主干更好地理解点云的几何结构和立体关系,实验结果证明了我们提出的方法在提升架构导向方法性能方面的优越性,并在 Fine-tuning ScanObjectNN 分类和 ShapeNetPart 分割任务时实现了最先进的性能。
Jul, 2023
在本研究中,我们对监督学习和对比学习预训练策略及其在下游 3D 任务中的实用性进行了深入的定量和定性调查,通过分层分析学到的特征提供了对训练网络在下游任务中的可用性的重要见解,基于这一分析,我们提出了一种简单的几何正则化策略,来提高监督学习的可迁移性,我们的工作揭示了 3D 迁移学习的具体挑战以及克服这些挑战的策略。
Mar, 2024
通过可微分神经渲染,我们提出了一个新的通用方法来学习点云表示,实现了 3D 和 2D 之间的无缝集成,并在室内和室外场景中的多个任务中实现了卓越的性能和持续改进。
Oct, 2023
本文探讨如何使用预训练的 2D 知识,通过 Point-to-Pixel Prompting 对预训练的图像模型进行微小调整,以适应于点云分析任务。经过广泛实验,该方法取得了很好的成绩,并在 ScanObjectNN 的最难设置上达到了 89.3% 的准确度。
Aug, 2022
探讨了利用几何约束来学习视角不变、几何感知表达,通过对 RGB-D 数据进行对比度学习,实现从 3D 先验信息到 2D 表达的迁移,并在语义分割、实例分割、室内物体检测中实现了显著提升。
Apr, 2021
提出了一种名为 Mask3D 的预训练方法,可以将现有的大规模 RGB-D 数据应用于自监督预训练中,将 3D 先验嵌入到 2D 的学习特征中,并对多个场景理解任务产生了改进,尤其是语义分割。
Feb, 2023
利用自监督的预训练,我们通过 Image-to-Point Masked Autoencoders(I2P-MAE)从 2D 预训练模型中获取优秀的 3D 表示,其中我们引入了两种图像到点的学习方案:一种是引入 2D 引导遮罩策略,另一种是通过可见的点重构相应的多视角 2D 特征;与现有方法的完全训练结果相当的冻结 I2P-MAE 在 ModelNet40 上实现了 93.4%的线性 SVM 准确性,在进一步在 ScanObjectNN 的最困难的分割上进行微调后,I2P-MAE 达到了 90.11%的最新技术水平,比第二好的方法高 3.68%,展示出优秀的可转移能力。
Dec, 2022
本论文介绍了一种将自然图像上训练的 2D 分类网络的效率转移到 2D、3D 单模态和多模态医学图像分割应用中的高效方法,该方法基于权重转移和维度转移的两个关键原则,实验证明其在多维医学图像分割方面表现出色。
Jul, 2023