Nov, 2023

利用动态注意力提升基于 Transformer 的大型语言模型的鲁棒性

TL;DR通过提出一种名为动态注意力的新方法,我们设计了一个针对转换器架构的机制来增强模型本身对各种对抗性攻击的鲁棒性,从而显著减轻对抗性攻击的影响,并将其与其他防御方法(如对抗性训练)相结合以进一步增强模型的鲁棒性。