Nov, 2021

对比学习何时能从预训练到微调保持对抗鲁棒性?

TL;DR本文通过提高对抗性鲁棒性的角度重新审视和推进了对比学习。作者设计了高频组件的对比视图,以及增加伪监督刺激的对比学习来帮助保护模型的鲁棒性。作者提出了一种新的对抗性对比预训练框架 AdvCL, 在多个数据集上展示了其卓越的性能,该框架能够提高跨任务鲁棒性传输,同时不会降低准确性和微调效率。