对抗性自监督对比学习
通过理论和实验,我们证明了半监督学习可以显著提高对抗性鲁棒性,实验结果表明在 CIFAR-10 上使用 500k 未标记图像,使用自我训练方法可以超过最先进的对抗性鲁棒的准确度。在 SVHN 上,使用模型自身的额外的训练集可以提高 4 至 10 个百分点,与使用额外标签的提高量相差不大。
May, 2019
本文首次提出了一种自我监督的对抗训练机制,在输入空间中防御对抗性攻击,并提供极大的鲁棒性,可以作为即插即用的解决方案来保护各种视觉系统,包括分类、分割和检测,同时极大降低了未知攻击的成功率。
Jun, 2020
本文探索了对比学习框架中注入对抗扰动的方法,以提高其在无监督下的自我训练的鲁棒性表现。实验表明,该方法可以实现在无标签数据集下的有效增强,从而大幅提升半监督学习的表现。
Oct, 2020
通过对比自监督学习与 supervised learning 在对抗鲁棒性上的表现,本文发现 contrastive self-supervised learning 的数据表示倾向于在单位超球面上均匀分布,这导致其比 supervised learning 更容易受到干扰,作者提出了一种有效的方法来检测与消除训练中的 false negative pairs,并将其应用于对比自监督学习中,成功缩小了对抗鲁棒性方面与 supervised learning 之间的差距,提高了模型的性能。
Jul, 2022
该研究提出了一种弱监督方法 —— 敌对标签学习,通过对抗生成器为训练数据选择标签,以历经多个真实数据集的实验证明,在无监督的情况下训练分类器,并通过保护上面部分的误差率最小值以避免偏差和依赖性等问题,有助于有效提高训练效果。
May, 2018
本文研究了神经网络对抗性鲁棒性问题,通过理论和实验结果表明,增加未标记数据的使用,可以提高抗干扰泛化性能,并提出一种算法在 MNIST 和 Cifar-10 上的对抗训练方法。
Jun, 2019
研究表明,使用未标记的数据进行训练可以作为对于耐受对抗攻击模型的有竞争力的替代方法,具体而言是在简单的统计情况下,学习对抗鲁棒模型的样本复杂度与完全受监督的情况一致。此外,使用未标记数据的无监督对抗训练方法可以在 CIFAR-10 这样的标准数据集上,使得鲁棒准确性比仅仅使用 4K 监督样例有 21.7% 的提升,并且可以捕捉到相同数量标记样例的改进量中超过 95% 的部分。最后,使用来自未筛选的 8000 万张小图片数据集的额外未标记数据,在 CIFAR-10 上击败了当前已知最强的攻击,展示了我们的发现也适用于未筛选的现实情况,从而为提高对抗训练打开了新的途径。
May, 2019
本文提出一种名为 SwARo 的对抗性对比学习框架,结合聚类分配和实例感知对抗样本生成以提高语义相似性和计算效率,并在多个基准数据集上进行评估,获得了与最先进的基线相比的一致改进。
Apr, 2022
本文通过提高对抗性鲁棒性的角度重新审视和推进了对比学习。作者设计了高频组件的对比视图,以及增加伪监督刺激的对比学习来帮助保护模型的鲁棒性。作者提出了一种新的对抗性对比预训练框架 AdvCL, 在多个数据集上展示了其卓越的性能,该框架能够提高跨任务鲁棒性传输,同时不会降低准确性和微调效率。
Nov, 2021
本文介绍了一种新的神经网络训练框架,通过将对比学习与对抗训练相结合,增强了模型对对抗攻击的鲁棒性,同时保持高干净度的准确性。作者发现对比学习有助于提高对抗性鲁棒性,并使用 CIFAR-10 数据集验证了他们的方法,发现其优于其他监督和自监督方法。
Mar, 2022