AAAIFeb, 2023

CoMAE:基于单模型的小规模 RGB-D 数据混合预训练

TL;DR本文提出了一种名为 CoMAE 的单模型自监督混合预训练框架,通过交叉模态对比学习和遮蔽图像建模,采用课程学习策略来统一两种流行的自监督表示学习算法,并设计了一个修补程序级别对齐任务来预训练一种单一的编码器,共享两个模态。CoMAE 在 SUN RGB-D 和 NYUDv2 数据集上的实验表明,在仅使用小规模和无标签的训练集进行预训练的情况下,其预训练模型仍然具有与额外的大规模和监督 RGB 数据集预训练的最新方法相竞争的效果。