May, 2024

自监督先训练用于可迁移多模态感知

TL;DR这篇论文介绍了一种用于可转移多模式表示学习的自监督预训练范式,利用 NeRF 支持的遮蔽自动编码器(NS-MAE)来提供高效且高性能的微调的预训练模型初始化,通过在神经辐射场(NeRF)中进行遮蔽多模式重建来训练模型以重建缺失或损坏的多模式输入数据,证明了 NS-MAE 表示在不同的多模式和单模式感知模型之间的良好可转移性,该可转移性在不同程度的微调标签数据下通过各种 3D 感知下游任务进行了评估,例如 3D 对象检测和 BEV 地图分割。