Apr, 2022

MultiMAE: 多模态多任务掩蔽自编码器

TL;DR提出了一种称为 MultiMAE 的预训练策略,通过掩蔽解决了网络输入多样性和预测任务多样性的问题,从而实现可靠的跨模态与任务预测编码和转移学习。