自监督对抗训练
本文首次提出了一种自我监督的对抗训练机制,在输入空间中防御对抗性攻击,并提供极大的鲁棒性,可以作为即插即用的解决方案来保护各种视觉系统,包括分类、分割和检测,同时极大降低了未知攻击的成功率。
Jun, 2020
本文介绍自监督学习作为深度学习替代方案的优势及其在计算机视觉、自然语言处理和图学习中的应用,分类总结了现有的自监督学习方法,并进一步探讨其相关的理论分析工作,最后简要讨论了自监督学习的未来方向和开放性问题.
Jun, 2020
本文综述了对抗性预训练的自监督深度网络,包括卷积神经网络和视觉变换器。我们发现现有方法主要分为两组:针对单个样例进行的无内存实例攻击和在迭代中跨样例共享的基于内存的对手。特别地,我们回顾了基于对比学习(CL)和掩码图像建模(MIM)的几个典型的对抗性预训练模型,讨论了计算开销、输入 / 特征级对手以及其他对抗性预训练方法等杂项问题,最后,我们讨论了关于对抗性和协作式预训练之间关系、统一对比度和 MIM 预训练的未来趋势以及在对抗性预训练中准确性和鲁棒性之间的权衡。
Oct, 2022
本文通过实验研究快速对抗训练的行为并显示其成功的关键在于从过度拟合弱攻击中恢复。我们进一步扩展了这一发现以改善快速对抗训练,展示了与强对抗训练相比更优异的鲁棒性准确性以及更短的训练时间。
Jun, 2020
本文提出一种新的对未标记数据的敌对攻击方法,并提出了一种自监督对比学习框架来实现无标记数据的敌对训练,旨在最大化数据样本的随机扩增和其实例级对抗扰动之间的相似度。我们在多个基准数据集上验证了我们的方法,发现它在鲁棒精度方面与最先进的有监督敌对学习方法相当,并且对于黑盒和未知类型的攻击具有显着的提高鲁棒性。此外,通过进一步联合微调有监督对抗损失,我们的方法可以获得更高的鲁棒精度,特别是在鲁棒迁移学习方面取得了令人瞩目的结果。
Jun, 2020
通过对比自监督学习与 supervised learning 在对抗鲁棒性上的表现,本文发现 contrastive self-supervised learning 的数据表示倾向于在单位超球面上均匀分布,这导致其比 supervised learning 更容易受到干扰,作者提出了一种有效的方法来检测与消除训练中的 false negative pairs,并将其应用于对比自监督学习中,成功缩小了对抗鲁棒性方面与 supervised learning 之间的差距,提高了模型的性能。
Jul, 2022
本文介绍了一种基于在线负样本对挖掘的自我监督深度学习范式,包括学生教师网络、正负样本对挖掘和三元组式的损失函数等,实验表明该方法可以有效地提高标签效率并在 ILSVRC-2012 上表现优异。
Feb, 2022
本研究提出一种生成无监督模型的对抗性示例的框架,使用相互信息神经估计器作为无监督信息理论相似度测量,建议使用此框架将对抗性样本作为简单的插入数据增强工具进行模型再训练,以大幅提高在不同无监督任务和数据集上的性能。
Mar, 2021