ACLDec, 2020
更广覆盖以提高更好抗干扰性:用 Mixup 扩充进行对抗训练以达到更好的微调鲁棒性
Better Robustness by More Coverage: Adversarial Training with Mixup Augmentation for Robust Fine-tuning
Chenglei Si, Zhengyan Zhang, Fanchao Qi, Zhiyuan Liu, Yasheng Wang...
TL;DR本文提出了对抗与混合数据增强方法(AMDA)以提高预训练语言模型在对抗攻击下的鲁棒性。在 BERT 和 RoBERTa 的文本分类实验中,AMDA 在两种强对抗攻击下均取得显著的鲁棒性增益,并缓解了 ADA 在干净数据上的性能下降。