ICLRMar, 2022

文本分类的鲁棒前缀调优

TL;DR提出一种保持 prefix-tuning 的有效性和模块化性的鲁棒性前缀调谐方法,通过正确分类的数据作为附加前缀调谐的标准,使用语言模型的层激活来增强鲁棒性,并通过针对每个批次的额外批量级前缀来提高鲁棒性。实验证明,该方法在多个基准测试中执行对抗攻击时,在保持高准确性的前提下,大幅提高了模型的鲁棒性。