EMNLPOct, 2020

预训练 Transformer 的任务无关数据增强效果如何?

TL;DR本文通过对 BERT、XLNet 和 RoBERTa 共 3 个方面、5 个分类任务和 6 个数据集上应用非针对特定任务的数据增强技术(easy data augmentation 和 back-translation)的实验研究,发现之前针对非预训练模型的技术并未能有效地提高预训练模型的性能表现,从而提醒实践者在进行数据增强时需谨慎。