EMNLPDec, 2023

RoAST:通过选择性训练对语言模型进行对抗性扰动的鲁棒性增强

TL;DRRoAST 是一种简单而有效的微调技术,通过在微调期间引入对抗性扰动,并且在相对重要性上选择性地更新模型参数,以提升语言模型的多角度鲁棒性。通过统一评估微调的语言模型在四个代表性的鲁棒性角度下,我们证明了 RoAST 相对于最先进的微调方法在六种不同类型的语言模型上的有效性,表明其在实践中的有用性。