ACLJun, 2023

DSRM:通过分布飘移风险最小化提升文本对抗训练

TL;DR介绍了一种新的经过有效处理的针对深度语言模型对抗训练的方法 —— 分布偏移风险最小化(DSRM),不需要对抗样本进行训练,可以比当前最佳对抗训练方法降低 70% 的时间消耗,并且显著提高 BERT 模型对文本对抗攻击的鲁棒性,实现了各种基准测试的最高鲁棒准确性。