EMNLPOct, 2022

通过元学习为预训练语言模型打造多重训练目标

TL;DR本研究提出了基于元学习的 Adaptive Sampler MOMETAS,用于多预训练目标下的语言建模,无需手动设置采样策略,可有效提高 BERT 模型在 14 项自然语言处理任务的性能表现。