ACLDec, 2020

更广覆盖以提高更好抗干扰性:用 Mixup 扩充进行对抗训练以达到更好的微调鲁棒性

TL;DR本文提出了对抗与混合数据增强方法(AMDA)以提高预训练语言模型在对抗攻击下的鲁棒性。在 BERT 和 RoBERTa 的文本分类实验中,AMDA 在两种强对抗攻击下均取得显著的鲁棒性增益,并缓解了 ADA 在干净数据上的性能下降。