Jan, 2024

FullLoRA-AT: 高效提升预训练视觉变换器的鲁棒性

TL;DR通过使用学习性的 LNLoRA 模块和 FullLoRA-AT 框架,本文提出了一种参数高效的对 Vision Transformer 模型进行对抗微调,以有效提高模型的鲁棒性。在 CIFAR-10,CIFAR-100 和 Imagenette 数据集上进行的广泛实验证明了本文方法的优越性。