Sep, 2021
视觉语言领域数据效率掩码语言建模
Data Efficient Masked Language Modeling for Vision and Language
TL;DR本文研究在跨模态预训练中使用遮蔽语言建模(Masked Language Modeling,简称MLM)的一些问题,提出了一些针对这些问题的替代遮蔽策略,在LXMERT模型预训练时,我们的替代策略始终优于原始遮蔽策略,特别是在低资源设置下,我们的预训练方法显著优于基准模型,并且通过对影像对象的特定标记任务的评估,我们的结果和分析表明,该方法允许更好地利用训练数据。